如何用Ollama安装DeepSeek?
Ollama是一个用于本地部署和管理ai大模型的工具,DeepSeek是人工智能公司深度求索(DeepSeek)自主研发的大语言模型,下面将会一步步教你如何用 Ollama 安装 DeepSeek。
第一步:安装 Ollama(所有系统通用)
打开电脑的 命令行工具(Windows 用户用 PowerShell,Mac/Linux 用 Terminal),然后:
1. 一键安装 Ollama
Windows(右键以管理员身份运行 PowerShell):
winget install ollama
Mac/Linux:
curl -fsSL https://ollama.com/install.sh | sh
安装完成后,输入以下命令测试是否成功:
ollama --version
如果看到版本号(比如 ollama version 0.1.23),说明安装成功!
第二步:安装 DeepSeek 模型
情况 1:官方已支持(推荐!)
1. 打开 Ollama 的模型库网站:https://ollama.ai/library
2. 在搜索框输入 deepseek,看看是否有官方模型(比如 deepseek-7b-chat)
3. 如果有,直接运行以下命令(以 deepseek-7b-chat 为例):
ollama run deepseek-7b-chat
Ollama 会自动下载并启动模型,完成后会显示 >>> 输入提示符,直接输入问题即可!
情况 2:官方未支持(手动安装)
如果官方没有 DeepSeek 模型,需要手动操作:
1. 下载模型文件
访问 Hugging Face 模型站:https://huggingface.co
搜索 deepseek-7b-chat-gguf,找一个量化版本(比如 Q4_K_M.gguf)
下载 .gguf 格式的模型文件(可能需要注册 Hugging Face 账号)
2. 创建配置文件
新建一个文本文件,命名为 Modelfile(无后缀),内容如下:
FROM /你的路径/deepseek-7b-chat.Q4_K_M.gguf # 替换为你的实际文件路径 PARAMETER temperature 0.7 # 控制回答随机性(0=保守,1=创意)
3. 安装自定义模型
在命令行中运行(注意文件路径):
ollama create deepseek -f /你的路径/Modelfile # 替换为 Modelfile 的实际路径
4. 运行模型
ollama run deepseek
第三步:测试模型
安装完成后,直接在命令行输入问题测试:
>>> 用 Python 写一个计算斐波那契数列的函数
等待片刻,模型就会生成代码!
常见问题解决
1. 找不到模型文件
检查文件路径是否正确(建议把文件放在桌面,路径类似 /Users/你的用户名/Desktop/deepseek-7b-chat.Q4_K_M.gguf)
如果提示权限错误,尝试在命令前加 sudo(Mac/Linux)
2. 运行速度慢
确保电脑至少有 8GB 内存
尝试更小的量化版本(比如 Q2_K 或 Q3_K)
3. 模型不响应
检查网络是否正常(首次运行需要联网)
重启 Ollama 服务:
ollama serve # 保持这个窗口打开,另开一个窗口运行模型
小技巧
按 【Ctrl+C】 可中断模型生成
输入【 /bye】 退出模型
更多命令可通过 ollama --help 查看
通过以上步骤,你应该能够顺利安装并运行Deepseek大模型。如果在安装过程中遇到其他问题,可以参考Ollama的官方文档或相关社区的支持。