ドキュメンテーション

始めるには、プロジェクトの クイックスタート を参照してください。

Ollamaは、AIモデルをあなたのハードウェアで実行するためのツールです。多くのユーザーは、Ollamaと連携するためにコマンドラインインターフェースCLIを選択します。CLIで使用できるすべてのコマンドについて詳しくは、メイン Readme を参照してください。

RESTful APIは、Python、JavaScript、Typescript、Go、Rustなど、任意の言語を使用して利用できます。APIの使用方法について詳しくは、APIドキュメント を参照してください。

新しいモデルを作成するか、ライブラリにすでに存在するモデルを変更するには、Modelfileを使用します。Modelfileの構文について詳しくは、Modelfileドキュメント を参照してください。

Hugging Faceや類似のサイトから見つかるソースモデルの重みを使用してモデルをインポートするには、Import ドキュメント を参照してください。

Linuxへのインストールは、ほとんどの場合、Ollama.aiのスクリプトを使用することで簡単です。インストールの詳細や、CUDAドライバについての詳細については、Linux ドキュメント を参照してください。

多くのユーザーは、公式のDockerイメージを使用する柔軟性が好まれています。OllamaとDockerを使用する方法についての詳細は、Docker ドキュメント をご参照ください。

LinuxやMacへのインストールは簡単ですが、多くのユーザーは独自にOllamaをビルドすることを選択するかもしれません。これを行うには、開発ドキュメント を参照してください。

Ollamaに問題が発生した場合、解決の出発点はログです。ログに関する詳細な情報は、トラブルシューティングガイド で確認できます。

最後に、他のどこにも当てはまらないすべての質問に対しては、FAQよくある質問 があります。

チュートリアル は、タスクに文書を適用する方法を示します。

Ollamaの使用に関する動作するコードの例については、Examplesを参照してください。