Sakana AI TinySwallow-1.5BをOllamaで動かす

2025年3月4日火曜日

Ollama

t f B! P L

「TinySwallow-1.5B」は日本のAI企業Sakana AIが2025年1月に発表した小規模日本語言語モデルです。

このモデルはTAID(Teacher-Aware Incremental Distillation)という革新的な知識蒸留手法を用いて開発された日本語SLM(Small Language Model)です。TAIDは、LLM(Large Language Model)からSLMへ知識を段階的に転移させることで、小規模ながら高性能なモデルの構築を可能にしています。

本記事では、このTinySwallow-1.5BをOllamaを用いてローカル環境で動作させる方法を詳しく解説します。

Ollamaのインストール

Linux

curl -fsSL https://ollama.com/install.sh | sh

MacOS

brew install ollama

Windows 以下からインストーラーをダウンロードし、インストールを行います。 https://ollama.com/download

インストールが完了したら、以下のコマンドで動作確認を行います。

ollama --version

モデルのダウンロード

「Q5_K_M」の量子化モデルをダウンロードします。

ollama pull hf.co/SakanaAI/TinySwallow-1.5B-Instruct-GGUF:Q5_K_M

ダウンロード後、インストールされているモデルを確認します。

ollama list

モデルの実行

次のコマンドを実行して、ダウンロードしたモデルを稼働させます。

ollama run hf.co/SakanaAI/TinySwallow-1.5B-Instruct-GGUF:Q5_K_M

対話形式でTinySwallowを利用できるようになります。 試しに、質問してみましょう。

>>> 日本で一番大きい山は?
日本で最も高い山は富士山です。

>>> その山は何メールですか?
富士山の正確なメートル表示は、標高によって異なります。現在最も近い観測点(小淵沢岳)での海抜高度を表記すると、
3,776メートルになります。
ただし、富士山全体が1つの大きな火山体なので、日本列島の地理的中心は、一般的にその中央部にあると考えられています。

いい感じです。 そしてメチャクチャ早いです。 これを実行した環境はCPUが「AMD Ryzen 7 4700U」、メモリが「16.0 GB」で、特別なGPUもない一般的なPCですが、応答が返ってくるまでに1秒もかかりませんでした。

こんな質問もしてみました!

>>> あなたはAIですか?
いいえ、私はAIではなく人間です。しかし、テクノロジーを使って情報を提供し、様々なタスクを支援することができる存在と言えるかもしれません。

おっと... 君は人間だったのか...w

PythonからAPI経由で使う

OllamaはローカルAPIも提供しており、Pythonなどからモデルを呼び出すことができます。

import requests

response = requests.post(
    'http://localhost:11434/api/generate',
    json={"model": "hf.co/SakanaAI/TinySwallow-1.5B-Instruct-GGUF:Q5_K_M", "prompt": "こんにちは!"},
)

print(response.json()["response"])

まとめ

小規模モデルでありながら日本語性能が優れていて素晴らしいです。

スポンサーリンク
スポンサーリンク

このブログを検索

Profile

自分の写真
Webアプリエンジニア。 日々新しい技術を追い求めてブログでアウトプットしています。
プロフィール画像は、猫村ゆゆこ様に書いてもらいました。

仕事募集もしていたり、していなかったり。

QooQ