提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


背景

最近在学习ai相关内容,看到本地可以部署大语言模型,就尝试记录一下,本文章记录了安装ollama和前端页面maxkb


提示:以下是本篇文章正文内容,下面案例可供参考

一、Ollama安装

1.安装

直接执行命令

curl -fsSL https://ollama.com/install.sh | sh

2.安装后检验

ollama -v

能显示版本的话,就是安装好了
ollama api端口默认11434,可以直接访问

curl http://127.0.0.1:11434 

会返回Ollama is running

3.运行模型

以通义千问为例

ollama run qwen:7b

上述命令就会直接下载并运行qwen:7b,运行成功即可对话
提示:关于ollama支持哪些模型,可以查看[ollama官网](https://ollama.com/)

4.常用命令

# 查看运行中的模型
ollama list

# 下载并运行模型 ollama run 模型名:版本
ollama run qwen:7b

# 删除模型 ollama rm 模型名:版本
ollama rm qwen:7b

二、安装maxkb

1.说明

maxkb可以作为ollama的前端页面,提供更友好的交互方式

2.docker安装maxkb

docker run -d --name=maxkb -p 8080:8080 -v ~/maxkb:/var/lib/postgresql/data 1panel/maxkb

安装完成之后,访问ip:8080,即可进入maxkb界面,默认账号 admin/MaxKB@123…

2.添加模型

在这里插入图片描述
在这里插入图片描述
名称和apikey可以随便填

3.创建应用

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.api域名无效

浏览器访问http://127.0.0.1:11434能正确响应,但是访问192.168.0.101:11434无发访问,跟ollama配置有关系。
找到ollama配置文件,我的是在这个目录/etc/systemd/system/ollama.service,添加环境变量OLLAMA_HOST
如:
Environment=“OLLAMA_HOST=0.0.0.0:11434”

保存后重新加载配置,再重启ollama服务,就能解决ollama只能127.0.0.1访问的问题
相关命令

# 重载daemon文件
systemctl daemon-reload
# 重启
systemctl restart ollama

三、总结

先这样吧,后续慢慢研究再记录

Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐