本地跑大模型,需要什么配置
在自己的电脑上跑大模型,到底需要多高的配置?
很多小伙伴私信问我这个问题。本期视频我就统一给大家一个答案。不过在此之前,有个问题先得回答一下:
ChatGPT用得好好的,为什么要在本地电脑上折腾这些开源大模型或者开源项目?
很简单,三个原因:
第一、运行更稳,速度更快,还不花钱。
过去一年,订阅ChatGPT Plus,以及使用API的费用加在一起,我应该给OpenAI贡献了大几百美金。但是,我对他们的服务器是非常不满意的,经常掉链子。
开始我还以为是我的代码有问题,或者是我网络有问题。后来我换个时间段测试,居然跑通了。其实就是全球用户涌入,服务器根本扛不住——这个就是云端的难题。
随着AI越来越普及,不管是哪一家巨头,他们的云端算力都不可能接得住这种规模的需求。从云端走向本地,一定是趋势。所以大家今年就会看到,越来越多的AI PC、AI手机开始上市。
因为我自己有这个趋势判断,所以才一直在视频里、在知识星球里分享端侧AI的内容。作为用户,我的实际体验是:
在自己电脑上跑大模型和AI应用,真的太舒服了。不会有服务器连不上之类的闹心事儿,速度飞起——这才是自然语言交互该有的感觉。而且,我再也不用心疼token的费用了。
第二、模型更丰富,选择更多。
像OpenAI这种巨头的思路是,造出最牛的大模型,足够通用,然后去满足各个垂直领域和场景的需求。
但是站在实用的角度,其实我们并不需要那么大的模型。比如,我就想让AI帮我写写代码,或者上网搜点资料,犯不着拿大炮打蚊子,而且还消耗那么多的能源。
开源的好处就在这里。你去Hugging Face、GitHub看看,真的是百花齐放,什么项目都有。不等那些巨头和上市公司,大家自己动手、丰衣足食。
我有一种回到互联网初期的感觉。
第三、特别自由。
我的电脑平时都挂着Ollama,前端开着AnythingLLM。想到什么了,就随时问AI。
我还储备了各种Python脚本,有需要的时候,运行一下就搞定。
本地跑开源大模型,不需要联网,但不代表它不能联网。我完全可以让它接入网络,把资料都拿回本地来处理。
我现在都是在台式机上跑大模型,感觉还不够自由。下半年,我应该会搞一台搭载英特尔最新CPU的笔记本。这种新的CPU架构里边包含了NPU,可以加速AI本地推理。我特别好奇它到底能起到多少作用。
OK,以上就是我作为一个重度用户所认为的,在本地跑大模型的好处。回到本期主题:
硬件配置。
根据用途来分的话,大概有这几种:
第一、生成图片。
比如跑Stable Diffusion。最低配置,要求16G内存和4G显存。建议你最好是有32G内存、12G显存,否则真的很难受。
第二、生成音频。
比如语音克隆、生成音乐,至少需要8G显存。理想情况下,有个24G显存就能跑比较大的模型了。
第三、生成文字。
也就是各种Chatbot。最少需要8G内存和4G显存。如果你想运行跟GPT-3.5差不多性能的开源大模型的话,最好准备32G内存和24G显存。
为了方便大家理解,我来简单总结一下:
最低配置:3060显卡,16G内存。比这个还低的话,我真就不建议你在本地跑大模型了。
理想配置:4090显卡,32G内存。我公司的PC就是这样的配置,专门给创意同事生成各种图片用的。
CPU的话,英特尔i5-12600K起步吧。
至于我每次给大家演示用的PC,我之前在知识星球里说过,都是好几年前的配置了:
CPU是i7-9700K,内存是两根8G的DDR4。
最开始是用核显,用了一段时间发现,用OBS直播不太行。实不相瞒,那时我还是B站游戏区的UP主,攒了台机子就是为了直播和剪视频。实际用起来发现,还是得上GPU推流。当时显卡特别贵,只能买得起3060。
最近为了更好地跑大模型,我又花了不到500块钱买了两根同样的内存条,把容量扩展到了32G。终于可以跑更大一个级别的模型了。
最后,告诉大家一个最直观的方法。你去下载一个LM Studio。这款软件集成度非常高,可以直接在软件内下载大模型,以及运行和对话。
在下载的时候,软件会根据你机子的配置给出建议。比如,哪些模型可以跑,哪些模型肯定没戏。这样你心里就有数了。
那到了使用阶段,你可以拖动右边这个滑块,调整GPU的参与程度。默认设置的话,更多依赖内存,跑起来有点慢。如果把滑块拉到头,把GPU全用起来,速度快了非常多。所以英伟达赚那么多钱,真的是人家的本事,没什么好说的。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)