使用官方安装脚本(Linux)
bash展开代码curl -fsSL https://ollama.com/install.sh | sh
默认路径:
~/.ollama/modelsC:\Users\<用户名>\.ollama\models自定义路径:
bash展开代码export OLLAMA_MODELS="/mnt/jfs6/model" # Linux/Mac
$env:OLLAMA_MODELS="C:\your\custom\path" # Windows
bash展开代码ollama pull glm-4.6:cloud ollama pull qwen2.5:7b
bash展开代码# 1. 设置自定义模型路径(如果需要)
export OLLAMA_MODELS="/mnt/jfs6/model"
# 2. 启动服务
ollama serve &
# 3. 等待服务启动(约10秒)
sleep 10
# 4. 测试服务
curl http://localhost:11434/api/tags
# 5. 运行模型
ollama run glm-4.6:cloud
Ollama 0.1.14+ 原生支持 OpenAI API 格式。
python展开代码from openai import OpenAI
client = OpenAI(
base_url='http://localhost:11434/v1',
api_key='ollama' # 任意值
)
response = client.chat.completions.create(
model="llama2",
messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)
bash展开代码curl http://localhost:11434/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "llama2",
"messages": [{"role": "user", "content": "Hello!"}]
}'
/v1/chat/completions - 聊天补全/v1/completions - 文本补全/v1/embeddings - 嵌入向量/v1/models - 模型列表

本文作者:Dong
本文链接:
版权声明:本博客所有文章除特别声明外,均采用 CC BY-NC。本作品采用《知识共享署名-非商业性使用 4.0 国际许可协议》进行许可。您可以在非商业用途下自由转载和修改,但必须注明出处并提供原作者链接。 许可协议。转载请注明出处!