使用 ollama 在本地安装使用大模型
# 安装
https://ollama.com/ (opens new window)
# 命令
# 启动
ollama serve
# 创建模型
# 使用 Modelfile 来创建一个新模型。你需要提供一个包含模型信息的 Modelfile
ollama create /path/to/Modelfile
# 显示模型信息
ollama show model_name
# 列出所有模型
ollama list
ollama ls
# 运行模型
ollama run model_name
# 列出正在运行的模型
ollama ps
# 删除模型
ollama rm model_name
# 查看版本
ollama -v
ollama --version
# 复制模型
ollama cp old_model new_model
# 从注册表拉取模型
ollama pull model_name
# 推送模型到注册表
# 将本地模型推送到模型注册表中,以便他人或其他系统使用。
ollama push model_name
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
# 配置模型下载目录
配置环境变量 OLLAMA_MODELS
为 E:\ollama_models
,注意:配置之后需要重启ollama
# 安装deepseek-r1
deepseek-r1:32b (opens new window)
ollama run deepseek-r1:32b
1
# vscode中使用
安装Continue
插件,使用快捷键 Cmd+L
打开对话框,切换模型
# 参考
在 Mac 上使用 VS Code、Continue 和 Ollama + Qwen2.5-Coder 搭建免费的本地 AI 编程助手 (opens new window)