使用Flowise、OneAPI、Ollama搭建本地知识库问题,首选你要准备三台虚拟机,分别将这三种应用进行部署,默认使用的操作系统Ubuntu22.04。

一、搭建Ollama服务器

配置PVE虚拟机,Ollama要求有GPU卡24G或更高,内存建议32GB,当然越大越好。

安装英伟GPU的驱动,如何在ubuntu22.04上安装nvidia gpu卡,请自行搜索安装。

搭建Ollama服务器,请参考:https://ollama.com/download/linux

curl -fsSL https://ollama.com/install.sh | sh

配置跨域访问:

vim /etc/systemd/system/ollama.service

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

[Install]
WantedBy=default.target

 修改ollama.service文件,如上代码。

#重新加载systemd守护进程并启用Ollama服务
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

二、搭建OneAPI服务器

要求4G内存,CPU设置1-2个都可以。

1、搭建OneAPI服务器请参考:使用OneAPI创建LLM访问API Key-CSDN博客

服务器搭建好后,启动OneAPI

cd /one-api
./one-api --port 3000 --log-dir ./logs

打开浏览器访问oneapi 

http://local-ip:3000

 2、创建渠道

 

类型、名称:这两项可以随便写,你想叫啥名都行。

模型分组:假如你想分组就创建,不想分组管理就使用default就可以了。

模型名字:需要自己填写,如果你不清楚具体的名字,可以在ollama服务器上执行:ollama list

ollama list

NAME                  	ID          	SIZE  	MODIFIED     
qwen2:72b             	14066dfa503f	41 GB 	2 weeks ago 	
llama3.1:8b           	a340353013fd	4.7 GB	3 weeks ago 	
llama3.1:70b          	74a390d90490	39 GB 	3 weeks ago 	
gemma2:27b            	b8f858ce79c0	15 GB 	6 weeks ago 	
gemma2:9b             	6008d85d0646	5.5 GB	6 weeks ago 	
granite-code:34b      	4ce00960ca84	19 GB 	8 weeks ago 	
deepseek-v2:16b       	35a3613ab60c	8.9 GB	8 weeks ago 	
qwen2:7b              	e0d4e1163c58	4.4 GB	8 weeks ago 	
llama3:70b            	786f3184aec0	39 GB 	8 weeks ago 	
llava-llama3:8b       	44c161b1f465	5.5 GB	2 months ago	
mixtral:8x7b          	d39eb76ed9c5	26 GB 	2 months ago	
wizardcoder:34b-python	94b069a3c250	19 GB 	2 months ago	
medllama2:7b          	a53737ec0c72	3.8 GB	2 months ago	
command-r:35b         	b8cdfff0263c	20 GB 	2 months ago	
llava:13b             	0d0eb4d7f485	8.0 GB	3 months ago	
mistral:7b            	61e88e884507	4.1 GB	3 months ago	
llava:7b              	8dd30f6b0cb1	4.7 GB	3 months ago	
wizardlm2:7b          	c9b1aff820f2	4.1 GB	3 months ago	
phi3:3.8b             	a2c89ceaed85	2.3 GB	3 months ago	
llama3:8b             	a6990ed6be41	4.7 GB	3 months ago	

 照着list的NAME的名字写,名字写错了会报错的哦。

代理地址:即为你的ollama的服务器地址,一般为:

http://local-IP:11434

3、设置令牌

选择“添加新的令牌”

添加后,点复制即可以得到你的令牌key

保存你的key,这个key在接下来的Flowise工作流时需要用到。 

4、如何判断你的配置有效

在渠道设置里面,点测试,可以查看oneapi连接ollama的准态,包括响应时间等信息。

三、搭建Flowise服务器

要求16G内存或更高(内存太小会报错),CPU设置2个以上。

搭建Flowise服务器请参考:Flowise在ubuntu22.04上的安装-CSDN博客

1、创建API Key

这个key是生成工作流后,外部访问的一个认证。

2、创建LLM的连接帐号

注意Flowise提供了各种API连接方式

在本例中我们选择LocalAI API

在这里CREDENTIAL NAME:名字可以随便写,只要方便你记住就行。

LocalAI Api Key:这里就是要填写你在OneAPI里面的复制的那个Key了。注意这里的Key是OneAPI提供的。

3、创建工作流

 点Chatflows,创建工作流。

在Chat Models里面选择“ChatLocalAI”

ChatLocalAI的配置图

注意:BasePath:是你的OneAPI的地址,后面加上/v1,即:http://oneapi-ip:3000/v1

Model Name:一定要写ollama里面显示的NAME名字,区分大小写。

4、向量数据库

在Vector Stores里面找,这里选个简单的,In-Memory Vector Store。

5、问答及嵌入

 如果你需要将这个问答嵌入到你的软件里,那么就点边里

 可以将python代码嵌入到你的软件里面去。

当然你也可以将些网页共享,点Share Chatbot,此时可以直接生成一个网页进行访问。

访问该网页,就可以直接进行问答了。可以将些网页挂载到你的网站。 

Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐