インストール
まずはOllamaをインストールしましょう。macOSのパッケージ管理ツールであるHomebrewを使用している場合、以下のコマンドで簡単にインストールできます。
brew install ollama
Homebrewがインストールされていない場合や、他の方法でインストールしたい場合は、公式サイトからダウンロードすることも可能です。
以下のURLからOllamaをダウンロードしてください。
公式サイトには、各種OSに対応したインストーラが用意されており、ダウンロード後、画面の指示に従ってインストールすることで簡単にセットアップできます。
起動
インストールが完了したら、Ollamaを起動してみましょう。以下のコマンドを実行することで、Ollamaのサーバーを立ち上げることができます。
% ollama serve
サーバーが正常に起動したら、Ollamaが動作する環境が整ったことになります。次に、実際にモデルを動かしてみましょう。
「llama3.1」モデルを動かしてみる
Ollamaでは、多くのAIモデルを簡単に実行することができます。ここでは、試しに「llama3.1」モデルを動かしてみましょう。
% ollama run llama3.1
pulling manifest
pulling 6a0746a1ec1a... 100% ▕███████████████░ 4.7 GB
pulling 4fa551d4f938... 100% ▕████████████░ 12 KB
pulling 8ab4849b038c... 100% ▕██████████░ 254 B
pulling 577073ffcc6c... 100% ▕█████████░ 110 B
pulling 3f8eb4da87fa... 100% ▕█████████░ 485 B
verifying sha256 digest
writing manifest
success
>>>
>>>
>>> Send a message (/? for help)
モデルが起動したら、試しに「hello」と入力してみましょう。
>>> hello
Hello! It's nice to meet you. Is there something I can help you with, or
would you like to chat?
このように、モデルが応答してくれます。これで、簡単に対話型のAIモデルを実行できることが確認できました。
ダウンロード可能なモデルの一覧
Ollamaでは、様々なモデルをダウンロードして使用することができます。以下のリンクから、利用可能なモデルの一覧を確認することができます。
パラメータ数とは
モデルの一覧には「Parameters」という項目があり、「3B」や「8B」といった表記が見られます。これは、そのモデルが持つパラメータ(学習に用いられた調整可能な要素)の数を表しています。例えば「3B」は30億個のパラメータを持つことを意味し、パラメータ数が多いほどモデルの性能が高い傾向がありますが、その分、容量や計算リソースが多く必要になります。
パラメータ数は、モデルの精度や応答の質に影響するため、使用する目的やPCのスペックに応じて適切なモデルを選ぶことが重要です。
ダウンロードしたモデルの削除
AIモデルのファイルは非常に大きく、ストレージの容量を圧迫する可能性があります。不要になったモデルを削除するには、以下のコマンドを実行してください。
ollama rm llama3.1
これにより、「llama3.1」モデルがPCから削除され、ストレージ容量を確保することができます。必要なときに再度ダウンロードすれば、いつでも利用可能です。
まとめ
Ollamaをインストールし、簡単にモデルを実行するまでの手順を紹介しました。これからさまざまなAIモデルを試して、自分のプロジェクトに活用してみてください。もしインストールや実行に困ったことがあれば、公式ドキュメントやコミュニティのサポートも活用してみましょう。
0 件のコメント:
コメントを投稿