使用Colab的高RAM模式
COLA
🥤 COLA: Clean Object-oriented & Layered Architecture
项目地址:https://gitcode.com/gh_mirrors/col/COLA
·
使用Colab的高RAM模式
colab需要升级为pro或者pro+会员
1. 购买pro
图片来源:https://blog.csdn.net/javastart/article/details/138094086
2. 打开高RAM模式
要在Colab上使用高RAM模式来运行模型计算,您需要按照以下步骤操作:
- 打开您的Colab笔记本。
- 点击页面左上角的“修改”按钮。
- 在下拉菜单中选择“笔记本设置”。
- 在弹出的“笔记本设置”窗口中,找到“硬件加速器”部分。 选择“GPU”作为硬件加速器(如果您的模型需要使用GPU加速)。
- 在“RAM”部分,选择您需要的RAM大小。通常有“标准”、“高RAM”等选项,对于大型模型计算,应该选择“高RAM”。
- 点击“保存”按钮。
以下是一段示例代码,展示了如何在Colab中加载需要大量计算资源的模型:
# 特殊说明:模型计算量较大,需要使用Colab的高RAM模式,否则Colab容易Crash
# 高RAM模式需要点击「修改」-「笔记本设置」进行修改
# 加载 ControlNet 模型
controlnet = ControlNetModel.from_pretrained(
"diffusers/controlnet-Canny-sdxl-1.0-mid",
torch_dtype=torch.float16
)
# 加载 VAE 模型
vae = AutoencoderKL.from_pretrained(
"madebyollin/sdxl-vae-fp16-fix",
torch_dtype=torch.float16
)
# 创建 Stable Diffusion XL ControlNet Pipeline
pipe = StableDiffusionXLControlNetPipeline.from_pretrained(
"stabilityai/stable-diffusion-xl-base-1.0",
controlnet=controlnet,
vae=vae,
torch_dtype=torch.float16
)
# 启用模型CPU卸载,以节省GPU内存
pipe.enable_model_cpu_offload()
🥤 COLA: Clean Object-oriented & Layered Architecture
最近提交(Master分支:3 个月前 )
d948f204 - 6 个月前
09ce2165
optimize craftsman sample 1 年前
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)