Ollama 本地大模型
Ollama 是一个本地大模型运行工具,支持多种开源模型。无需联网,数据完全本地处理,保护隐私安全。
安装 Ollama
在 macOS 上使用 Homebrew 安装,或从官网下载安装包。
# macOS 安装
brew install ollama
# Linux/WSL
curl -fsSL https://ollama.ai/install.sh | sh
Python 集成
使用 Python SDK 与 Ollama 交互。
pip install ollama
import ollama
response = ollama.chat(
model='llama2',
messages=[{'role': 'user',
'content': '你好!'}]
)
常用模型推荐
CodeLlama
专门为代码生成和理解优化的模型。适合编程任务。
ollama run codellama
Llama 2
Meta 开源的通用大模型,综合能力强。
ollama run llama2
Mistral
高性能混合专家模型,推理速度快。
ollama run mistral
中文模型
Qwen、Yi 等中文优化模型,中文效果好。
ollama run qwen
ollama run yi
使用示例
1
下载并运行模型
使用 ollama run 命令下载并启动模型首次运行会自动下载模型文件。
2
交互式对话
模型下载完成后,直接在终端输入内容即可与大模型对话。
3
REST API 调用
Ollama 提供 REST API,可以集成到自己的应用中。
# REST API 示例
curl http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt": "为什么天空是蓝色的?",
"stream": false
}'
优势与注意事项
隐私安全
所有数据在本地处理,不会发送到外部服务器。适合处理敏感信息。
成本控制
一次性投入硬件成本后,无限次使用。适合高频使用场景。
离线可用
模型下载后无需网络连接,随时随地使用。
硬件要求
建议 8GB+ 内存,16GB 更好。需要足够的磁盘空间存储模型文件。