Llama3,作为Meta公司新发布的大型语言模型,在人工智能领域引起了广泛的关注。特别是其8B(80亿参数)版本,在性能上已经超越了GPT-3.5,而且由于是开源的,用户可以在自己的电脑上进行部署。

本文和大家分享一下如何在个人电脑上部署Llama3,拥有你自己的GPT-3.5+!

很多读者担心本地部署时个人电脑的硬件配置不够,实际上这种担心是多余的,笔者使用的是游戏本,主要通过GPU跑大模型(建议8g起步,CPU也可以,不过比较慢),硬件配置如下:

  • CPU i9-12900HX 16核24线程
  • GPU RTX4060-8G
  • RAM 32G

步骤大致如下:

  • 安装Ollama
  • 安装Docker Desktop
  • 下载WebUI
  • 下载Llama3并切换模型

一、安装Ollama

1.下载Ollama

Ollama,支持多平台!Windows / Mac /Linux 都可以运行
笔者这边是windows,读者们根据自己的环境,点击下载

image.png

2.安装

双击下载好的.exe文件,点击install

image.png 当电脑右下角弹窗出现下图,即已安装完成

image.png

二、Windows电脑打开WLS功能

  1. 点击windows搜索
  2. 输入启用或关闭windows功能
  3. 点击运行

image.png

  1. 弹出windows功能界面
  2. 勾选-适用于Linux的Windows子系统
  3. 点击确定
  4. 配置完成后需要立即重启电脑

image.png

三、安装Docker Desktop

1.下载

Docker Desktop

image.png

2.安装

双击下载好的.exe文件,点击ok,会自动安装docker环境

image.png

安装好后点击重启电脑

image.png

重启后会自动运行docker桌面版,点击Finish

image.png

看到如下界面代表已经安装完成,完成后会提示让我们注册docker账号,忽略就行

image.png

四、本地安装webUI

1. 打开windoiws搜索

输入cmd,运行 image.png

2. 选择运行方式

将代码复制,右键粘贴进终端,按回车,会自动下载并安装Webui,笔者这边选择GPU方式
image.png

a.在CPU下运行

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

b.在GPU下运行

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

3. 下载会比较慢

建议提前做好全局科学上网
如下图即已在下载安装中 image.png

4. 提示弹窗,点击允许

image.png

5. 如下图显示即已安装完成

image.png

6. 通过地址访问

安装完成通过本地地址在浏览器端:[http://127.0.0.1:3000]进行访问,看到如下图所示,即成功访问

image.png

五、使用

1. 注册

点击Sign up

image.png

名称随便填写,邮箱确保输入正确,输入好后点击创建,创建成功后会自动跳转至聊天对话页面

image.png

2. 切换中文

点击设置图标,找到语言,选择chinese,点击保存 image.png

image.png

3. 下载模型

点击设置,点击模型,点击可下载的模型

image.png

这边选择llama3

image.png

选择8b(8b,80 亿参数)
70b的模型建议4090显卡再上

image.png

将llama3:8b 复制出来,粘贴至下方如图所示,再点击下载(可同时下载多个模型)

image.png

当进度条为100%时,模型下载成功

image.png

4. 切换模型

点击主界面选择模型,选择llama3:8b,至此,模型切换成功

image.png

六、效果展示

输入
image.png

输出 image.png

七、总结

1. 优点
  1. 本地部署大模型可带来飞一般的体验,可降低延迟
  2. 可微调属于私人的大模型
  3. 数据安全得以保证
2. 缺点
  1. 对硬件要求比较高,是个头疼的问题
  2. 大规模模型的训练和推理过程耗能巨大,可能对环境造成一定影响

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐