# Linux上のOllama ## インストール Ollamaをインストールするには、次のワンライナーを実行してください: > ```bash curl https://ollama.ai/install.sh | sh ``` ## 手動インストール ### `ollama` バイナリをダウンロードしてください Ollamaは自己完結型のバイナリとして配布されています。以下の手順で、ダウンロードしてPATHに含まれるディレクトリに保存してください。 ```bash sudo curl -L https://ollama.ai/download/ollama-linux-amd64 -o /usr/bin/ollama sudo chmod +x /usr/bin/ollama ``` ### Ollamaを起動時サービスに追加する(推奨) Ollama用のユーザーを作成してください: ```bash sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama ``` `/etc/systemd/system/ollama.service`にサービスファイルを作成してください: ```ini [Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 [Install] WantedBy=default.target ``` 次に、サービスを起動してください: ```bash sudo systemctl daemon-reload sudo systemctl enable ollama ``` ### CUDAドライバのインストール(オプション - Nvidia GPU用) [CUDAをダウンロードしてインストール](https://developer.nvidia.com/cuda-downloads)してください。 ドライバーがインストールされているか確認するために、以下のコマンドを実行してください。これにより、GPUに関する詳細が表示されるはずです: ```bash nvidia-smi ``` ### Ollamaを開始 `systemd`を使用してOllamaを起動します。 ```bash sudo systemctl start ollama ``` ## アップデート 再びインストールスクリプトを実行して、Ollamaをアップデートします: ```bash curl https://ollama.ai/install.sh | sh ``` または、Ollamaのバイナリをダウンロードすることもできます: ```bash sudo curl -L https://ollama.ai/download/ollama-linux-amd64 -o /usr/bin/ollama sudo chmod +x /usr/bin/ollama ``` ## ログの表示 Ollamaが起動サービスとして実行されている際のログを表示するには、次のコマンドを実行してください: ```bash journalctl -u ollama ``` ## アンインストール Ollamaサービスを削除するには: ```bash sudo systemctl stop ollama sudo systemctl disable ollama sudo rm /etc/systemd/system/ollama.service ``` Ollama バイナリを bin ディレクトリから削除してください(`/usr/local/bin`、`/usr/bin`、または `/bin` のいずれか): ```bash sudo rm $(which ollama) ``` ダウンロードしたモデルとOllamaサービスのユーザーおよびグループを削除してください: ```bash sudo rm -r /usr/share/ollama sudo userdel ollama sudo groupdel ollama ```