ollama/docs/ja/faq.md
2024-03-12 19:58:30 +08:00

7.2 KiB
Raw Blame History

FAQ

Ollamaをアップグレードする方法はどのようになりますか

Ollamaをアップグレードするには、インストールプロセスを再実行してください。Macでは、メニューバーにあるOllamaアイコンをクリックし、更新が利用可能な場合は再起動オプションを選択してください。

ログを表示する方法は?

ログの使用についての詳細については、トラブルシューティングのドキュメントを参照してください。

Ollamaサーバーの設定方法は

Ollamaサーバーは、環境変数を使用して設定できます。

Macでの環境変数の設定

OllamaがmacOSアプリケーションとして実行される場合、環境変数はlaunchctlを使用して設定する必要があります:

  1. 各環境変数に対して、launchctl setenvを呼び出します。

    launchctl setenv OLLAMA_HOST "0.0.0.0"
    
  2. Ollamaアプリケーションを再起動します。

Linuxでの環境変数の設定

Ollamaがsystemdサービスとして実行される場合、環境変数はsystemctlを使用して設定する必要があります:

  1. systemctl edit ollama.serviceを呼び出して、systemdサービスを編集します。これによりエディタが開きます。

  2. 各環境変数に対して、[Service]セクションの下にEnvironmentという行を追加します:

    [Service]
    Environment="OLLAMA_HOST=0.0.0.0"
    
  3. 保存して終了します。

  4. systemdをリロードし、Ollamaを再起動します

    systemctl daemon-reload
    systemctl restart ollama
    

Ollamaをネットワークで公開する方法は

Ollamaはデフォルトで127.0.0.1ポート11434にバインドされます。バインドアドレスを変更するには、OLLAMA_HOST環境変数を使用してください。

環境変数の設定方法については、上記のセクションを参照してください。

追加のウェブ起源がOllamaにアクセスできるようにする方法は

Ollamaはデフォルトで127.0.0.1および0.0.0.0からのクロスオリジンリクエストを許可します。追加の起源はOLLAMA_ORIGINSで構成できます。

環境変数の設定方法については、上記のセクションを参照してください。

追加のウェブ起源がOllamaにアクセスできるようにする方法は

Ollamaはデフォルトで127.0.0.1および0.0.0.0からのクロスオリジンリクエストを許可します。追加の起源はOLLAMA_ORIGINSで構成できます。

環境変数の設定方法については、上記のセクションを参照してください。

モデルはどこに保存されていますか?

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models

それらを異なる場所に設定するにはどうすればよいですか?

別のディレクトリを使用する必要がある場合は、環境変数 OLLAMA_MODELS を選択したディレクトリに設定してください。

環境変数の設定方法については、上記のセクションを参照してください。

Ollamaはプロンプトや回答をOllama.aiに送信して何らかの方法で使用しますか

いいえ、Ollamaは完全にローカルで実行され、会話データは決してあなたのマシンを離れません。

Visual Studio CodeでOllamaを使用する方法は

既にVSCodeや他のエディタでOllamaを活用するための多くのプラグインが利用可能です。メインリポジトリの末尾にある拡張機能とプラグインのリストをご覧ください。

プロキシを使用する方法は?

HTTP_PROXYまたはHTTPS_PROXYが構成されている場合、Ollamaはプロキシサーバーと互換性があります。これらの変数を使用する場合は、ollama serveが値にアクセスできるように設定されていることを確認してください。HTTPS_PROXYを使用する場合は、プロキシ証明書がシステム証明書としてインストールされていることを確認してください。環境変数の設定方法については、上記のセクションを参照してください。

Docker内でプロキシを使用する方法は

Ollama Dockerコンテナイメージは、コンテナを起動する際に -e HTTPS_PROXY=https://proxy.example.com を渡すことでプロキシを使用するように構成できます。

代替として、Dockerデーモン自体をプロキシを使用するように構成することもできます。Docker DesktopのmacOSWindowsLinuxに関する手順が利用可能であり、またDocker daemon with systemdについても指示があります。

HTTPSを使用する場合は、証明書がシステム証明書としてインストールされていることを確認してください。これには、自己署名証明書を使用する場合には新しいDockerイメージが必要となるかもしれません。

FROM ollama/ollama
COPY my-ca.pem /usr/local/share/ca-certificates/my-ca.crt
RUN update-ca-certificates

このイメージをビルドして実行します:

docker build -t ollama-with-ca .
docker run -d -e HTTPS_PROXY=https://my.proxy.example.com -p 11434:11434 ollama-with-ca

Docker内でGPUアクセラレーションを使用する方法は

Ollama Dockerコンテナは、LinuxまたはWindowsWSL2を使用する場合でGPUアクセラレーションを構成することができます。これにはnvidia-container-toolkitが必要です。詳細については、ollama/ollamaを参照してください。

GPUアクセラレーションは、macOSのDocker DesktopではGPUのパススルーやエミュレーションの不足のため利用できません。

Windows 10のWSL2でネットワーキングが遅いのはなぜですか

これはOllamaのインストールやモデルのダウンロードに影響する可能性があります。

Control Panel > Networking and Internet > View network status and tasks を開き、左パネルで Change adapter settings をクリックします。vEthernel (WSL) アダプターを見つけ、右クリックして Properties を選択します。 Configure をクリックし、Advanced タブを開きます。各プロパティを検索し、Large Send Offload Version 2 (IPv4) および Large Send Offload Version 2 (IPv6) を見つけるまで調べてください。これらのプロパティは 無効 にしてください。