Skip to content

Ollama Docker 镜像

仅限 CPU

bash
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

英伟达显卡

安装NVIDIA容器工具包

使用Apt进行安装

  1. 配置仓库
bash
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \
   | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list \
   | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \
   | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
  1. 安装NVIDIA容器工具包
bash
sudo apt-get install -y nvidia-container-toolkit

使用 Yum 或 Dnf 安装

  1. 配置仓库
bash
curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo \
   | sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
  1. 安装NVIDIA容器工具包
bash
sudo yum install -y nvidia-container-toolkit

配置Docker使用Nvidia驱动程序

sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker

启动容器

bash
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

AMD显卡

要在具有AMD GPU的Docker中运行Ollama,请使用rocm标签和以下命令:

docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm

在本地运行模型

现在你可以运行模型了:

docker exec -it ollama ollama run llama3

尝试不同的模型

更多模型可以在Ollama库中找到。

热爱生活,热爱 Ollama