ollama-在线安装,运行速度相当不错

环境

系统:CentOS-7
CPU: 14C28T
显卡:Tesla P40 24G
驱动: 515
CUDA: 11.7
cuDNN: 8.9.2.26

安装

curl -fsSL https://ollama.com/install.sh | sh
等待下载

下载运行模型

ollama run qwen:0.5b-chat-v1.5-q4_1
国内也可以下载的

看到如下内容
success 
>>>
可以输入对话内容了
比如
	介绍自己

open-api请求

curl http://localhost:11434/api/chat -d '{
	"model": "qwen:0.5b-chat-v1.5-q4_1",
	"messages": [
		{ "role": "user", "content": "介绍一下北京景点?" }
	]
}'
curl http://localhost:11434/api/generate -d '{
	"model": "qwen:0.5b-chat-v1.5-q4_1",
	"prompt":"介绍一下北京景点?"
}'

性能

1C2G服务器上运行qwen0.5b-v1.5速度超快,1.8B就不行了很慢,如何升级更高
4c8G服务器上运行

模型版本信息获取

https://ollama.com/library
可以在这里找打所有模型,并查看指定版本命令

第二十四篇-Ollama-在线安装
第二十五篇-Ollama-离线安装
第二十六篇-Ollama-监听本地IP与端口
第二十七篇-Ollama-加载本地模型文件
第二十八篇-Ollama-TeslaP40-Ollama-8B-Qwen1.5-32B等速度
第三十篇-Ollama-TeslaP40-Ollama-Qwen2-57B等速度

GitHub 加速计划 / oll / ollama
82.42 K
6.3 K
下载
启动并运行 Llama 2、Mistral、Gemma 和其他大型语言模型。
最近提交(Master分支:1 个月前 )
01b80e9f add conversion for microsoft phi 3 mini/medium 4k, 128k 1 个月前
bd5e4326 - 1 个月前
Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐