Ollama Docker 镜像
仅限 CPU
bash
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama英伟达显卡
安装NVIDIA容器工具包。
使用Apt进行安装
- 配置仓库
bash
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \
| sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list \
| sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \
| sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update- 安装NVIDIA容器工具包
bash
sudo apt-get install -y nvidia-container-toolkit使用 Yum 或 Dnf 安装
- 配置仓库
bash
curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo \
| sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo- 安装NVIDIA容器工具包
bash
sudo yum install -y nvidia-container-toolkit配置Docker使用Nvidia驱动程序
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker启动容器
bash
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollamaAMD显卡
要在具有AMD GPU的Docker中运行Ollama,请使用rocm标签和以下命令:
docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm在本地运行模型
现在你可以运行模型了:
docker exec -it ollama ollama run llama3尝试不同的模型
更多模型可以在Ollama库中找到。
