ollama 命令行速查

  • 拉取模型到本地:ollama pull [模型名]
  • 列出本地模型列表:ollama list
  • 从本地删除模型:ollama delete [模型名]
  • 启动本地对话 (终端):ollama chat [模型名]
  • 启用 RESTful API 服务,供其他程序调用模型:ollama serve
  • 直接生成模型对给定输入的回复:`ollama generate [模型名] -p “[提示词]”
  • 清理临时文件,不删除模型:ollama clean
  • 查看 ollama运行状态:ollama status
  • 停止 ollama 服务:pkill -f "ollama serve"
    调用 API:
curl -X POST http://localhost:11434/api/v1/completions \
  -H "Content-Type: application/json" \
  -d '{
        "model": "[你的模型名]",
        "prompt": "[你想说的话]"
      }'

本地部署 Deepseek

首先需要安装 ollama:https://ollama.com/download 可以下载符合个人操作系统的版本。下载后解压,并拖到"应用程序",即 /Applications 文件夹
image-20250210171637291.webp
然后在任意本地终端使用命令:ollama run [你要的模型] 即可
对于 deepseek-r1 而言,访问:https://ollama.com/library/deepseek-r1 可以看到如下界面:
image-20250210172337080.webp
我的 Mac 内存大小为 36GB,因此使用 32B 模型:
image-20250210172629773.webp
在终端使用 ollama run deepseek-r1:32b 得到的日志如下:

❯ ollama run deepseek-r1:32b                
pulling manifest                          
pulling 6150cb382311... 100% ▕████████████████████████████████████▏  19 GB
pulling 369ca498f347... 100% ▕████████████████████████████████████▏  387 B
pulling 6e4c38e1172f... 100% ▕████████████████████████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕████████████████████████████████████▏  148 B
pulling c7f3ea903b50... 100% ▕████████████████████████████████████▏  488 B
verifying sha256 digest                      
writing manifest
success         
>>> 

然后去下载可以可视化问答的 App,https://chatboxai.app/en/install,如果你只要测试问答,可以忽略以下步骤。
image-20250210184904610.webp
安装完毕后打开,需要配置本地 ollama 服务的接口,打开设置根据需要配置:
image-20250210190512778.webp
然后即可新建对话了!例如:
image-20250210190533390.webp

image-20250210172830814.webp

参考文献