
Shisa V2.1、日本語LLMの新たなスタンダードを確立
Shisa.AIは2025年12月9日、大規模言語モデル(LLM)の最新シリーズ「Shisa V2.1」を発表しました。この新シリーズは、これまでの最高水準と評価された「Shisa V2」から、日本語の性能と効率をさらに飛躍的に向上させています。スマートフォンでもスムーズに動作する1.2B(12億パラメータ)の小型モデルから、GPT-4に匹敵する日本語性能を持つ14B(140億パラメータ)および70B(700億パラメータ)の大型モデルまで、全5種類のサイズで提供されるのが特徴です。HuggingFaceでの無料ダウンロードに加え、今回のリリースから初めてAPIを通じた有料提供も開始され、より多くのユーザーがShisa V2.1の力を活用できるようになりました。
大規模言語モデル(LLM)とは?
大規模言語モデル(LLM)とは、人間が使う言葉を理解し、生成できる人工知能の一種です。インターネット上の膨大なテキストデータを学習することで、文章の作成、要約、翻訳、質問応答など、多岐にわたるタスクを実行できます。私たちが普段使っているChatGPTなども、このLLMの一種です。LLMは、その性能を測る指標として「パラメータ数」がよく用いられます。パラメータ数が多いほど、より複雑な情報を学習し、高度な処理が可能になると考えられていますが、同時に必要な計算資源やメモリも増大します。
「より小さく、より賢く」Shisa V2.1の驚くべき進化
Shisa V2.1シリーズの最大の特長は、「より小さなモデルで、より優れた日本語性能」を実現した点にあります。これは、AI技術の進化において非常に重要なブレイクスルーと言えます。
小型化と性能向上の両立
具体的な進化を見てみましょう。
-
Shisa V2.1 14Bモデル: 以前の「Shisa V2 70B」を超える日本語性能を達成しました。これは、約5分の1以下のサイズで、より高速に、そしてより少ないメモリで動作することを意味します。つまり、より少ないコストで、より高性能なAIを利用できるようになったのです。
-
Shisa V2.1 70Bモデル: 国産LLMとして最高性能を誇る「Shisa V2 405B」に迫る性能を実現しています。こちらも約6分の1のサイズで同等の性能を発揮するため、大規模な処理が必要な場面でも、より効率的な運用が可能になります。
モデルのパラメータ数が小さいほど、AIを動かすために必要なメモリが少なく、計算にかかる時間(推論速度)も速くなります。これにより、高性能なAIをより低コストで、そしてスマートフォンなどの限られた環境でも利用できるようになるため、AIの活用範囲が大きく広がります。
全5サイズのラインナップとベンチマーク結果
Shisa V2.1は、ユーザーの多様なニーズに応えるため、以下の5つのサイズで提供されます。
| ライセンス | モデル名 | パラメータ数 | 日本語AVG | 英語AVG | JA-MT |
|---|---|---|---|---|---|
| Llama 3.1 | Shisa V2 405B | 405B | 74.7 | 67.5 | 9.43 |
| Llama 3.3 | Shisa V2.1 70B | 70B | 73.1 | 66.0 | 9.26 |
| MIT | Shisa V2.1 14B | 14B | 72.6 | 57.7 | 9.28 |
| Apache 2.0 | Shisa V2.1 8B | 8B | 67.8 | 57.8 | 8.93 |
| Llama 3.2 | Shisa V2.1 3B | 3B | 57.9 | 43.2 | 7.55 |
| LFM | Shisa V2.1 1.2B | 1.2B | 43.4 | 27.6 | 6.69 |
上記の表は、各モデルの日本語と英語の平均スコアに加え、GPT-4 Turboを評価者とした日本語MT-Benchスコア(日本語の質問応答能力を示す指標)を示しています。Shisa V2.1の各モデルが、そのサイズに対して非常に高い性能を発揮していることが分かります。
性能向上の裏側にある技術
今回の性能改善は、データセットの80%以上を一新し、SFT(Supervised Fine-Tuning、教師ありファインチューニング)、DPO(Direct Preference Optimization、直接選好最適化)に加えて、RL(Reinforcement Learning、強化学習)やモデルマージ技術といった最先端のAI技術を組み合わせることで実現されました。これらの技術は、AIがより自然で質の高い日本語を生成できるように、徹底的に学習を最適化した結果です。ベンチマークスコアだけに特化した学習ではなく、実際の利用環境での日本語能力の向上を目指して開発されたため、実用面での効果が期待できます。
「正確な日本語出力」へのこだわり:言語漏れ問題の解決
近年、日本語に対応したLLMが増えていますが、海外で開発されたモデルだけでなく、国内で学習されたモデルでも、日本語の出力中に突然中国語や英語が混ざってしまう「言語漏れ」という現象が見られることがあります。これは、特に翻訳やカスタマーサポート、コンテンツ生成といった実用的な日本語アプリケーションにおいて、致命的な問題となり得ます。
業界初の定量化と大幅な改善
Shisa.AIは、この「言語漏れ」の問題に対し、業界で初めて定量的に評価する手法「Cross-Lingual Token Leakage」を開発しました。この評価手法を用いることで、言語漏れの度合いを数値で測り、具体的な改善目標を設定できるようになりました。
その結果、Shisa V2.1は、ベースとなったモデルと比較して、最大で47.8倍もの言語漏れ改善を達成しました。検証された他のほとんどのモデルを上回るこの成果は、日本語のテキストを扱うユーザーにとって、非常に大きな安心材料となるでしょう。
| ベースモデル | Shisa V2.1 | ベース漏れ率 | V2.1漏れ率 | 改善倍率 |
|---|---|---|---|---|
| Llama 3.2 3B | Shisa V2.1 3B | 11.48% | 0.24% | 47.8× |
| LFM2 1.2B | Shisa V2.1 1.2B | 4.32% | 0.32% | 13.5× |
| Qwen 3 8B | Shisa V2.1 8B | 2.18% | 0.44% | 5.0× |
| Llama 3.3-70B | Shisa V2.1 70B | 1.90% | 0.36% | 5.3× |
| Phi 4 14B | Shisa V2.1 14B | 0.12% | 0.06% | 2.0× |
この表が示すように、Shisa V2.1は、様々なベースモデルにおいて言語漏れ率を大幅に低減しています。これにより、ユーザーはより信頼性の高い、純粋な日本語出力を得られるようになり、ビジネスや日常生活でのAI活用がよりスムーズになることが期待されます。
API提供と商用サービスの開始:AI活用の新たな扉を開く
Shisa V2.1のリリースに合わせて、Shisa.AIはテキスト・翻訳・音声APIの提供を開始しました。これにより、高性能な大規模言語モデルを自社のシステムやサービスに組み込みたい企業や開発者にとって、大きなメリットが生まれます。
多様な利用方法とコストパフォーマンス
-
API提供: Shisa V2.1の高性能を、自社のアプリケーションやサービスを通じて利用できるようになります。これにより、開発者はモデルの構築や運用にかかる手間を省き、より手軽にAIの力を活用できます。
-
翻訳サービス「chotto.chat」: Shisa V2をベースにした翻訳サービス「chotto.chat」も公開されており、個人ユーザーから法人まで、高品質な日英翻訳をすぐに試すことが可能です。
-
OpenRouterでの提供: 高性能な大規模モデルを試すには、通常、コストや環境構築のハードルが高いと感じる方もいるでしょう。Shisa V2.1は、OpenRouterを通じて、利用しやすい価格設定と無料枠付きで提供される予定です。これにより、気軽にその性能を体験できるようになります。
-
柔軟な導入オプション: 専用の計算資源の確保(専用キャパシティ)、自社サーバーへの導入(オンプレミス導入)、特定の用途に合わせた学習(カスタム学習)など、企業ごとの具体的な要望にも対応しています。
国産モデルとしての安心感
Shisa V2モデルは、経済産業省の「GENIAC国産モデル」として承認されています。GENIACは、日本のAI産業を強化し、国際競争力を高めることを目的としたプロジェクトです。Shisa V2.1の計算資源は日本国内でホストされており、データが国外に出る心配がない「データレジデンシー」や、日本の法規制への対応が求められる用途でも安心して利用できます。低遅延での応答も期待できるため、リアルタイム性が求められるアプリケーションにも適しています。
AMDハードウェアでの学習:日本のAI技術の新たな挑戦
Shisa V2.1の学習は、AMD Developer Cloudが提供するAMD MI300X GPUで実施されました。これは、日本で開発された大規模言語モデルとして、初めてAMDハードウェアで学習されたモデルとなります。Shisa.AIは、学習効率を向上させる独自の改良も実施し、その成果をオープンソースとして公開しています。このような取り組みは、日本のAI技術開発の多様性を広げ、国内外の技術コミュニティへの貢献も期待されます。
Shisa.AIについて
Shisa.AIは、シリコンバレー発の技術チームを中核とする次世代AIスタートアップです。「日本語特化AI」と「データドリブン開発」を軸に、オープンソースLLMの進化をリードし、日本発のAIイノベーションを世界へ発信していくことを目指しています。
まとめ:Shisa V2.1が拓くAIの未来
Shisa V2.1シリーズの登場は、日本語大規模言語モデルの分野において、性能、効率、そして実用性の面で新たな基準を打ち立てるものです。小型モデルから高性能モデルまで、多様な選択肢が提供され、APIを通じて手軽に利用できるようになることで、これまでAIの導入に躊躇していた企業や開発者も、その恩恵を受けやすくなるでしょう。特に、正確な日本語出力へのこだわりや、国産モデルとしての安心感は、日本のビジネス環境において大きなアドバンテージとなります。Shisa V2.1は、これからのAI活用を加速させ、私たちの生活やビジネスに革新をもたらす可能性を秘めています。
関連リンク
-
Shisa.AI公式サイト:https://shisa.ai/
-
Shisa API:https://talk.shisa.ai/ja
-
HuggingFace:https://huggingface.co/shisa-ai
-
chotto.chat:https://chotto.chat/

