「TinySwallow-1.5B」は日本のAI企業Sakana AIが2025年1月に発表した小規模日本語言語モデルです。
このモデルはTAID(Teacher-Aware Incremental Distillation)という革新的な知識蒸留手法を用いて開発された日本語SLM(Small Language Model)です。TAIDは、LLM(Large Language Model)からSLMへ知識を段階的に転移させることで、小規模ながら高性能なモデルの構築を可能にしています。
本記事では、このTinySwallow-1.5BをOllamaを用いてローカル環境で動作させる方法を詳しく解説します。
Ollamaのインストール
Linux
curl -fsSL https://ollama.com/install.sh | sh
MacOS
brew install ollama
Windows 以下からインストーラーをダウンロードし、インストールを行います。 https://ollama.com/download
インストールが完了したら、以下のコマンドで動作確認を行います。
ollama --version
モデルのダウンロード
「Q5_K_M」の量子化モデルをダウンロードします。
ollama pull hf.co/SakanaAI/TinySwallow-1.5B-Instruct-GGUF:Q5_K_M
ダウンロード後、インストールされているモデルを確認します。
ollama list
モデルの実行
次のコマンドを実行して、ダウンロードしたモデルを稼働させます。
ollama run hf.co/SakanaAI/TinySwallow-1.5B-Instruct-GGUF:Q5_K_M
対話形式でTinySwallowを利用できるようになります。 試しに、質問してみましょう。
>>> 日本で一番大きい山は?
日本で最も高い山は富士山です。
>>> その山は何メールですか?
富士山の正確なメートル表示は、標高によって異なります。現在最も近い観測点(小淵沢岳)での海抜高度を表記すると、
3,776メートルになります。
ただし、富士山全体が1つの大きな火山体なので、日本列島の地理的中心は、一般的にその中央部にあると考えられています。
いい感じです。 そしてメチャクチャ早いです。 これを実行した環境はCPUが「AMD Ryzen 7 4700U」、メモリが「16.0 GB」で、特別なGPUもない一般的なPCですが、応答が返ってくるまでに1秒もかかりませんでした。
こんな質問もしてみました!
>>> あなたはAIですか?
いいえ、私はAIではなく人間です。しかし、テクノロジーを使って情報を提供し、様々なタスクを支援することができる存在と言えるかもしれません。
おっと... 君は人間だったのか...w
PythonからAPI経由で使う
OllamaはローカルAPIも提供しており、Pythonなどからモデルを呼び出すことができます。
import requests
response = requests.post(
'http://localhost:11434/api/generate',
json={"model": "hf.co/SakanaAI/TinySwallow-1.5B-Instruct-GGUF:Q5_K_M", "prompt": "こんにちは!"},
)
print(response.json()["response"])
まとめ
小規模モデルでありながら日本語性能が優れていて素晴らしいです。
0 件のコメント:
コメントを投稿