Ollama内网离线部署大模型

本文以codeqwen:7b大模型为例编写部署步骤

1、大模型源文件准备

(1)国内大模型源文件下载地址https://modelscope.cn/models

在这里插入图片描述

(2)国外大模型源文件下载地址https://huggingface.co/models

在这里插入图片描述

2、准备Modelfile文件

(1)Modelfile参数说明

命令描述
FROM (必需的)引入使用的模型或者模型源文件
PARAMETER(参数)设置大模型的运行参数
TEMPLATE(提示词模板)用于大模型请求的prompt提示词模板
SYSTEM设置的大模型默认的系统消息
ADAPTER定义适用于模型的(Q)LoRA适配器
LICENSE指定license.
MESSAGE指定消息历史

(2)Modelfile样例文件

FROM ./codeqwen-1_5-7b-chat-q8_0.gguf

TEMPLATE """{{ if .System }}<|im_start|>system
{{ .System }}<|im_end|>
{{ end }}{{ if .Prompt }}<|im_start|>user
{{ .Prompt }}<|im_end|>
{{ end }}<|im_start|>assistant
{{ .Response }}<|im_end|>
"""
PARAMETER stop "<|im_start|>"
PARAMETER stop "<|im_end|>"

3、创建模型

(1)创建模型命令

ollama create <your-model-name> -f <./Modelfile>

(2)创建模型示例

# 创建存储大模型源文件和modelfile文件的目录
sudo mkdir /home/llm
# 上传文件codeqwen-1_5-7b-chat-q8_0.gguf和modelfile-codeqwen.Modelfile到/home/llm;
# 进入工作目录
cd /home/llm
# 执行创建命令
ollama create codeqwen:7b -f ./modelfile-codeqwen.Modelfil
# 查看创建结果
ollama list

在这里插入图片描述

4、运行模型

(1)运行模型命令

ollama run <your-model-name>

(2)运行模型示例

# 运行步骤3创建的codeqwen:7b大模型
ollama run codeqwen:7b

# 退出命令
/bye

在这里插入图片描述

5、删除模型

(1)删除模型命令

ollama rm <your-model-name>

(2)删除模型示例

# 删除步骤3创建的codeqwen:7b大模型
ollama rm codeqwen:7b
```

(2)删除模型示例

# 删除步骤3创建的codeqwen:7b大模型
ollama rm codeqwen:7b

Linux内网离线安装ollama请参考:https://blog.csdn.net/u010197332/article/details/137604798

Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐