使用Colab的高RAM模式

colab需要升级为pro或者pro+会员

1. 购买pro

图片来源:https://blog.csdn.net/javastart/article/details/138094086
图片来源

2. 打开高RAM模式

要在Colab上使用高RAM模式来运行模型计算,您需要按照以下步骤操作:

  1. 打开您的Colab笔记本。
  2. 点击页面左上角的“修改”按钮。
  3. 在下拉菜单中选择“笔记本设置”。
  4. 在弹出的“笔记本设置”窗口中,找到“硬件加速器”部分。 选择“GPU”作为硬件加速器(如果您的模型需要使用GPU加速)。
  5. 在“RAM”部分,选择您需要的RAM大小。通常有“标准”、“高RAM”等选项,对于大型模型计算,应该选择“高RAM”。
  6. 点击“保存”按钮。

以下是一段示例代码,展示了如何在Colab中加载需要大量计算资源的模型:

# 特殊说明:模型计算量较大,需要使用Colab的高RAM模式,否则Colab容易Crash
# 高RAM模式需要点击「修改」-「笔记本设置」进行修改

# 加载 ControlNet 模型
controlnet = ControlNetModel.from_pretrained(
    "diffusers/controlnet-Canny-sdxl-1.0-mid", 
    torch_dtype=torch.float16
)

# 加载 VAE 模型
vae = AutoencoderKL.from_pretrained(
    "madebyollin/sdxl-vae-fp16-fix", 
    torch_dtype=torch.float16
)

# 创建 Stable Diffusion XL ControlNet Pipeline
pipe = StableDiffusionXLControlNetPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-base-1.0", 
    controlnet=controlnet, 
    vae=vae, 
    torch_dtype=torch.float16
)

# 启用模型CPU卸载,以节省GPU内存
pipe.enable_model_cpu_offload()
        
GitHub 加速计划 / col / COLA
15
5
下载
🥤 COLA: Clean Object-oriented & Layered Architecture
最近提交(Master分支:3 个月前 )
d948f204 - 6 个月前
09ce2165 optimize craftsman sample 1 年前
Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐