2.4 KiB
問題のトラブルシューティング方法
時々、Ollamaが期待通りに機能しないことがあります。何が起こったかを理解する最良の方法の一つは、ログを確認することです。Mac上でログを見るには、次のコマンドを実行してください:
cat ~/.ollama/logs/server.log
systemd
を使用しているLinuxシステムでは、次のコマンドでログを見つけることができます:
journalctl -u ollama
Ollamaをコンテナで実行する場合、ログはコンテナ内のstdout/stderrに送られます:
docker logs <container-name>
(docker ps
を使用してコンテナ名を見つけてください)
ターミナルでollama serve
を手動で実行する場合、ログはそのターミナル上に表示されます。
ログの解釈に関するヘルプはDiscordに参加してください。
LLM ライブラリ
Ollamaには、異なるGPUとCPUベクトル機能向けにコンパイルされた複数のLLMライブラリが含まれています。Ollamaは、システムの機能に基づいて最適なものを選択しようとします。この自動検出に問題があるか、他の問題(例:GPUのクラッシュ)に遭遇した場合は、特定のLLMライブラリを強制的に指定することで回避できます。cpu_avx2
が最も優れており、次にcpu_avx
、最も互換性があるが最も遅いのがcpu
です。MacOSのRosettaエミュレーションはcpu
ライブラリと動作します。
サーバーログには、次のようなメッセージが表示されます(リリースによって異なります):
Dynamic LLM libraries [rocm_v6 cpu cpu_avx cpu_avx2 cuda_v11 rocm_v5]
実験的LLMライブラリのオーバーライド
OLLAMA_LLM_LIBRARYを利用可能なLLMライブラリのいずれかに設定すると、自動検出をバイパスできます。たとえば、CUDAカードがあるがAVX2ベクトルサポートを持つCPU LLMライブラリを強制的に使用したい場合は、次のようにします:
OLLAMA_LLM_LIBRARY="cpu_avx2" ollama serve
あなたのCPUがどの機能を持っているかは、以下の方法で確認できます。
cat /proc/cpuinfo| grep flags | head -1
既知の問題
- N/A