Open-Webui和RAGFlow无法加载ollama模型
·
sudo vim /etc/systemd/system/ollama.service
#添加环境变量
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/root/bin:/home/zxw/anaconda3/bin:/home/zxw/anaconda3/condabin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin:/usr/local/cuda/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
[Install]
WantedBy=default.target
#为了使更改生效,您需要重新加载systemd的配置。使用以下命令:
sudo systemctl daemon-reload
#最后,重启服务以应用更改:
sudo systemctl restart ollama
注意配置防火墙规则:
1.当然您可以直接关了他。
2.如果服务器有防火墙(如iptables或ufw),确保开放了Ollama使用的端口(默认为11434)。您可以使用以下命令开放端口:
sudo iptables -I INPUT -p tcp --dport 11434 -j ACCEPT
或者,如果您使用的是ufw:
sudo ufw allow 11434/tcp
原文链接:https://blog.csdn.net/liujianming90/article/details/137452942
更多推荐
已为社区贡献3条内容
所有评论(0)