Ollama的安装和配置

Ollama安装和配置

为什么要用Ollama

Ollam官网的介绍是:Get up and running with large language models, locally.

安装Ollla

Mac

Linux

Windows

启动

配置Ollama

设置服务

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
ExecStart=/usr/local/bin/ollama serve

#User=ollama
#Group=ollama
User=root
Group=root
Restart=always
RestartSec=3
Environment="PATH=/root/anaconda3/bin:....{这里是你的环境变量}"

[Install]
WantedBy=default.target
sudo systemctl daemon-reload
sudo systemctl enable ollama

systemctl start ollama

下载模型

运行模型

方式1: 命令行

ollama run llama2-chinese #meta开源的模型
ollama run gemma:2b  #google 开源模型;
ollama run qwen      #阿里开源模型

方式2: 接口

curl http://localhost:11434/api/chat -d '{
"model": "mistral",
"messages": [
{ "role": "user", "content": "天空为什么是蓝色?" }
]
}'
curl http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt":"天空为什么是蓝色?"
}'
>> Home

51ak

2024/04/15

Categories: 人工智能 chatgpt Tags: 原创

《数据库工作笔记》公众号
扫描上面的二维码,关注我的《数据库工作笔记》公众号