使用 ollama 在本地安装使用大模型

# 安装

https://ollama.com/ (opens new window)

# 命令

# 启动
ollama serve

# 创建模型
# 使用 Modelfile 来创建一个新模型。你需要提供一个包含模型信息的 Modelfile
ollama create /path/to/Modelfile

# 显示模型信息
ollama show model_name

# 列出所有模型
ollama list
ollama ls

# 运行模型
ollama run model_name

# 列出正在运行的模型
ollama ps

# 删除模型
ollama rm model_name

# 查看版本
ollama -v
ollama --version

# 复制模型
ollama cp old_model new_model

# 从注册表拉取模型
ollama pull model_name

# 推送模型到注册表
# 将本地模型推送到模型注册表中,以便他人或其他系统使用。
ollama push model_name
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36

# 配置模型下载目录

配置环境变量 OLLAMA_MODELSE:\ollama_models,注意:配置之后需要重启ollama

# 安装deepseek-r1

deepseek-r1:32b (opens new window)

ollama run deepseek-r1:32b
1

# vscode中使用

安装Continue插件,使用快捷键 Cmd+L 打开对话框,切换模型

# 参考

在 Mac 上使用 VS Code、Continue 和 Ollama + Qwen2.5-Coder 搭建免费的本地 AI 编程助手 (opens new window)