|
| 1 | +## Ollama 安装部署与服务发布 |
| 2 | + |
| 3 | +### Linux |
| 4 | + |
| 5 | +```bash |
| 6 | +curl -fsSL https://ollama.com/install.sh | sh |
| 7 | +``` |
| 8 | + |
| 9 | +[手动安装说明](https://github.com/ollama/ollama/blob/main/docs/linux.md) |
| 10 | + |
| 11 | +### macOS |
| 12 | + |
| 13 | +[下载](https://ollama.com/download/Ollama-darwin.zip) |
| 14 | + |
| 15 | +### Windows 预览版 |
| 16 | + |
| 17 | +[下载](https://ollama.com/download/OllamaSetup.exe) |
| 18 | + |
| 19 | +--- |
| 20 | + |
| 21 | +## 快速入门 |
| 22 | + |
| 23 | +要运行并与 [Llama 3.1](https://ollama.com/library/llama3.1) 进行对话: |
| 24 | + |
| 25 | +```bash |
| 26 | +ollama run llama3.1 |
| 27 | +``` |
| 28 | + |
| 29 | +--- |
| 30 | + |
| 31 | +## 模型库 |
| 32 | + |
| 33 | +Ollama 支持在 [ollama.com/library](https://ollama.com/library) 上提供的一系列模型。 |
| 34 | + |
| 35 | +以下是一些可以下载的示例模型: |
| 36 | + |
| 37 | +| 模型 | 参数 | 大小 | 下载命令 | |
| 38 | +| ------------------ | ----- | ----- | ------------------------------ | |
| 39 | +| Llama 3.1 | 8B | 4.7GB | `ollama run llama3.1` | |
| 40 | +| Llama 3.1 | 70B | 40GB | `ollama run llama3.1:70b` | |
| 41 | +| Llama 3.1 | 405B | 231GB | `ollama run llama3.1:405b` | |
| 42 | +| Phi 3 Mini | 3.8B | 2.3GB | `ollama run phi3` | |
| 43 | +| Phi 3 Medium | 14B | 7.9GB | `ollama run phi3:medium` | |
| 44 | +| Gemma 2 | 2B | 1.6GB | `ollama run gemma2:2b` | |
| 45 | +| Gemma 2 | 9B | 5.5GB | `ollama run gemma2` | |
| 46 | +| Gemma 2 | 27B | 16GB | `ollama run gemma2:27b` | |
| 47 | +| Mistral | 7B | 4.1GB | `ollama run mistral` | |
| 48 | +| Moondream 2 | 1.4B | 829MB | `ollama run moondream` | |
| 49 | +| Neural Chat | 7B | 4.1GB | `ollama run neural-chat` | |
| 50 | +| Starling | 7B | 4.1GB | `ollama run starling-lm` | |
| 51 | +| Code Llama | 7B | 3.8GB | `ollama run codellama` | |
| 52 | +| Llama 2 Uncensored | 7B | 3.8GB | `ollama run llama2-uncensored` | |
| 53 | +| LLaVA | 7B | 4.5GB | `ollama run llava` | |
| 54 | +| Solar | 10.7B | 6.1GB | `ollama run solar` | |
| 55 | + |
| 56 | +--- |
| 57 | + |
| 58 | +### 命令行工具 |
| 59 | + |
| 60 | +#### 创建模型 |
| 61 | + |
| 62 | +`ollama create` 用于从 Modelfile 创建模型。 |
| 63 | + |
| 64 | +```bash |
| 65 | +ollama create mymodel -f ./Modelfile |
| 66 | +``` |
| 67 | + |
| 68 | +#### 拉取模型 |
| 69 | + |
| 70 | +```bash |
| 71 | +ollama pull llama3.1 |
| 72 | +``` |
| 73 | + |
| 74 | +> 此命令还可用于更新本地模型。仅会拉取差异部分。 |
| 75 | +
|
| 76 | +#### 删除模型 |
| 77 | + |
| 78 | +```bash |
| 79 | +ollama rm llama3.1 |
| 80 | +``` |
| 81 | + |
| 82 | +#### 复制模型 |
| 83 | + |
| 84 | +```bash |
| 85 | +ollama cp llama3.1 my-model |
| 86 | +``` |
| 87 | + |
| 88 | +#### 多行输入 |
| 89 | + |
| 90 | +对于多行输入,可以使用 `"""` 包裹文本: |
| 91 | + |
| 92 | +```bash |
| 93 | +>>> """Hello, |
| 94 | +... world! |
| 95 | +... """ |
| 96 | +``` |
| 97 | +这将输出一个包含“Hello, world!”消息的简单程序。 |
| 98 | + |
| 99 | +#### 多模态模型 |
| 100 | + |
| 101 | +```bash |
| 102 | +ollama run llava "这张图片中有什么? /Users/jmorgan/Desktop/smile.png" |
| 103 | +``` |
| 104 | +图像中显示的是一个黄色的笑脸,可能是图片的中心焦点。 |
| 105 | + |
| 106 | +#### 以参数传递提示 |
| 107 | + |
| 108 | +```bash |
| 109 | +$ ollama run llama3.1 "总结此文件: $(cat README.md)" |
| 110 | +``` |
| 111 | +Ollama 是一个轻量级、可扩展的框架,用于在本地计算机上构建和运行语言模型。 |
| 112 | + |
| 113 | +--- |
| 114 | + |
| 115 | +### REST API |
| 116 | + |
| 117 | +Ollama 提供 REST API 来运行和管理模型。 |
| 118 | + |
| 119 | +#### 生成响应 |
| 120 | + |
| 121 | +```bash |
| 122 | +curl http://localhost:11434/api/generate -d '{ |
| 123 | + "model": "llama3.1", |
| 124 | + "prompt":"为什么天空是蓝色的?" |
| 125 | +}' |
| 126 | +``` |
| 127 | + |
| 128 | +#### 与模型对话 |
| 129 | + |
| 130 | +```bash |
| 131 | +curl http://localhost:11434/api/chat -d '{ |
| 132 | + "model": "llama3.1", |
| 133 | + "messages": [ |
| 134 | + { "role": "user", "content": "为什么天空是蓝色的?" } |
| 135 | + ] |
| 136 | +}' |
| 137 | +``` |
| 138 | + |
| 139 | +有关所有端点(Endpoint)的详细信息,请参阅 [API 文档](./docs/api.md)。 |
| 140 | + |
| 141 | +--- |
| 142 | + |
| 143 | +### Docker 支持 |
| 144 | + |
| 145 | +Ollama 官方提供了 Docker 镜像 `ollama/ollama`,可以在 Docker Hub 上找到。 |
| 146 | + |
| 147 | +#### 使用 CPU 运行 |
| 148 | + |
| 149 | +```bash |
| 150 | +docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama |
| 151 | +``` |
| 152 | + |
| 153 | +#### 使用 Nvidia GPU 运行 |
| 154 | + |
| 155 | +要使用 Nvidia GPU,首先需要安装 NVIDIA Container Toolkit: |
| 156 | + |
| 157 | +```bash |
| 158 | +# 配置仓库 |
| 159 | +curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg |
| 160 | +curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list |
| 161 | +sudo apt-get update |
| 162 | + |
| 163 | +# 安装 NVIDIA Container Toolkit 包 |
| 164 | +sudo apt-get install -y nvidia-container-toolkit |
| 165 | + |
| 166 | +# 配置 Docker 使用 Nvidia 驱动 |
| 167 | +sudo nvidia-ctk runtime configure --runtime=docker |
| 168 | +sudo systemctl restart docker |
| 169 | +``` |
| 170 | + |
| 171 | +启动容器: |
| 172 | + |
| 173 | +```bash |
| 174 | +docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama |
| 175 | +``` |
| 176 | + |
| 177 | +#### 使用 AMD GPU 运行 |
| 178 | + |
| 179 | +要使用 AMD GPU 运行 Ollama,可以使用 `rocm` 标签,并运行以下命令: |
| 180 | + |
| 181 | +```bash |
| 182 | +docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm |
| 183 | +``` |
| 184 | + |
| 185 | +### 本地运行模型 |
| 186 | + |
| 187 | +现在,你可以运行一个模型: |
| 188 | + |
| 189 | +```bash |
| 190 | +docker exec -it ollama ollama run llama3 |
| 191 | +``` |
| 192 | + |
| 193 | +--- |
| 194 | + |
| 195 | +请根据以上内容进行 Ollama 的安装和配置,使用 CLI 工具和 Docker 镜像来管理和运行各种模型。如需更多信息,请访问 [Ollama GitHub 仓库](https://github.com/ollama/ollama)。 |
0 commit comments