问题解析

我们在使用ollma部署大语言模型的时候,如果部署的模型尺寸较大,往往在第一次加载的时候需要花费大量的时间加载模型;等加载完成后,如果长时间不调用模型,我们会发现模型已经被释放掉了,又要重新加载,导致体验感极差.

这是为什么呢?因为在没被调用时,ollama默认在显存中驻留5min,然后就会自动释放,如果我们两次调用的间隔大于5min的话,那模型已经被释放了,又要重新加载;

不过ollama预留了keep_alive参数可以控制模型驻留的时间:
该参数可以设置为:

  • 持续时间字符串(如10M’, ‘24H’);
  • 以秒为单位的数字(如 3600);
  • -1表示永远驻留在显存中;
  • 0表示接受一次响应后立即清除模型;

使用方法

方法如下:
如预加载模型,并永远驻留在显存

curl http://localhost:11434/api/generate -d '{"model":"llama2","keep_alive”: -1}

具体keep_alive可以根据实际情况自由设置;

GitHub 加速计划 / oll / ollama
82.41 K
6.3 K
下载
启动并运行 Llama 2、Mistral、Gemma 和其他大型语言模型。
最近提交(Master分支:1 个月前 )
01b80e9f add conversion for microsoft phi 3 mini/medium 4k, 128k 1 个月前
bd5e4326 - 1 个月前
Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐