安装使用 Ollama 客户端
Available for macOS, Linux, and Windows (preview)
windows 和 macOS 上都可以通过网页下载:
https://ollama.com/download
linux 通过命令行来下载
curl -fsSL https://ollama.com/install.sh | sh
安装命令行工具成功后,会提示 运行下面命令安装模型
ollama run llama3
执行后,将先下载模型,然后执行;需要注意你的 RAM 大小,和模型参数量是否匹配
安装自定义模型
从 GGUF 导入
Ollama 在 Modelfile 支持导入 GGUF models :
使用 FROM 指令 创建一个名为 Modelfile 的文件,其中包含你想导入模型的本地文件地址
FROM ./vicuna-33b.Q4_0.gguf
在 Ollama 中创建模型
ollama create example -f Modelfile
运行 model
ollama run example
安装Docker
然后在docker安装webUI
在CPU下运行:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
支持GPU运行:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
安装完成通过本地地址:http://127.0.0.1:3000 进行访问