ollama/docs_ja/troubleshooting.md
2024-02-05 19:05:38 +08:00

2.4 KiB
Raw Blame History

問題のトラブルシューティング方法

時々、Ollamaが期待通りに機能しないことがあります。何が起こったかを理解する最良の方法の一つは、ログを確認することです。Mac上でログを見るには、次のコマンドを実行してください:

cat ~/.ollama/logs/server.log

systemdを使用しているLinuxシステムでは、次のコマンドでログを見つけることができます:

journalctl -u ollama

Ollamaをコンテナで実行する場合、ログはコンテナ内のstdout/stderrに送られます:

docker logs <container-name>

docker ps を使用してコンテナ名を見つけてください)

ターミナルでollama serveを手動で実行する場合、ログはそのターミナル上に表示されます。

ログの解釈に関するヘルプはDiscordに参加してください。

LLM ライブラリ

Ollamaには、異なるGPUとCPUベクトル機能向けにコンパイルされた複数のLLMライブラリが含まれています。Ollamaは、システムの機能に基づいて最適なものを選択しようとします。この自動検出に問題があるか、他の問題GPUのクラッシュに遭遇した場合は、特定のLLMライブラリを強制的に指定することで回避できます。cpu_avx2が最も優れており、次にcpu_avx、最も互換性があるが最も遅いのがcpuです。MacOSのRosettaエミュレーションはcpuライブラリと動作します。

サーバーログには、次のようなメッセージが表示されます(リリースによって異なります):

Dynamic LLM libraries [rocm_v6 cpu cpu_avx cpu_avx2 cuda_v11 rocm_v5]

実験的LLMライブラリのオーバーライド

OLLAMA_LLM_LIBRARYを利用可能なLLMライブラリのいずれかに設定すると、自動検出をバイパスできます。たとえば、CUDAカードがあるがAVX2ベクトルサポートを持つCPU LLMライブラリを強制的に使用したい場合は、次のようにします:

OLLAMA_LLM_LIBRARY="cpu_avx2" ollama serve

あなたのCPUがどの機能を持っているかは、以下の方法で確認できます。

cat /proc/cpuinfo| grep flags  | head -1

既知の問題

  • N/A