Mistral Small 4完全解説:推論・マルチモーダル・コーディングを1モデルに統合したOSS最新作

Mistral Small 4完全解説:推論・マルチモーダル・コーディングを1モデルに統合したOSS最新作

Mistral Small 4とは——3つの特化モデルを1つに

フランスのAIスタートアップMistral AIは2026年3月、最新のオープンソースモデル「Mistral Small 4」をリリースしました。このモデルが注目を集める理由は、これまで別々に存在していた3つの特化モデルの能力を1つに統合したことにあります。

  • Magistral(推論特化): 数学・論理推論・ステップバイステップの問題解決
  • Pixtral(視覚特化): 画像理解・図表解析・マルチモーダル入力
  • Devstral(コーディング特化): コード生成・デバッグ・技術文書の理解

これまでユーザーはタスクに応じてモデルを切り替える必要がありましたが、Mistral Small 4はこの3つの能力をシームレスに扱えます。「コードの画像からバグを特定して修正案を論理的に説明する」といった複合タスクが1つのモデルで完結します。


アーキテクチャ——119B MoEの設計

Mistral Small 4はMixture of Experts(MoE)アーキテクチャを採用しており、総パラメータ数は119Bです。

MoEとは何か

MoEはニューラルネットワークの一種で、入力に応じて「専門家(Expert)」と呼ばれる複数のサブネットワークから一部のみを動的に選択して使用します。119Bの総パラメータのうち、1回の推論で実際に使われるのは22B程度です。これにより、大きなモデルの表現力を持ちながら、推論コストは小〜中規模モデルと同等に抑えられます。

主な仕様

項目 仕様
総パラメータ数 119B
アクティブパラメータ 約22B
コンテキスト長 256,000トークン
推論深度 設定可能(fast / balanced / deep)
マルチモーダル テキスト・画像入力対応
ライセンス Apache 2.0(商用利用無償)

コンテキスト長256Kは、長い法律文書・技術仕様書・コードベース全体を一度に処理できる長さです。また、推論深度を「fast」「balanced」「deep」の3段階で切り替えられる点は実用上の強みです。簡単な質問にはfastモードで素早く答え、複雑な数学問題にはdeepモードで時間をかけて解く、という使い分けができます。


ベンチマーク——主要評価での実力

Mistral Small 4のベンチマーク結果を主要な評価指標で見ていきます。

言語・推論(MMLU)

MMLU(Massive Multitask Language Understanding)では82.4点を記録。これはGPT-4oと同等水準に迫る数値で、同規模のオープンソースモデルとしては最高クラスです。

コーディング(HumanEval)

HumanEvalでは87.1%のpass@1スコア。Devstralの能力を受け継いだコーディング性能は、GPT-4o(86.8%)をわずかに上回ります。

数学(MATH)

数学ベンチマークでは73.9点。Magistralの推論能力を継承しており、高校・大学レベルの数学問題で安定した成績を出しています。

視覚理解(MMBench)

MMBenchでは76.2点。Pixtralの視覚理解能力を引き継ぎ、図表・グラフ・画像内のテキスト認識で高精度を発揮します。


競合モデルとの比較

Mistral Small 4が競合するのは、主にミドルレンジのクローズドソースモデルたちです。

モデル ライセンス パラメータ コンテキスト 特徴
Mistral Small 4 Apache 2.0 119B MoE 256K 統合能力・OSS
GPT-4o mini 商用API 非公開 128K 低コスト・安定
Claude 3.5 Haiku 商用API 非公開 200K 高速・信頼性
Gemini 2.0 Flash 商用API 非公開 1M 超長コンテキスト
Llama 3.3 70B Llama 3 70B 128K Meta OSS

Mistral Small 4の最大の差別化ポイントはApache 2.0ライセンスです。GPT-4o mini・Claude Haiku・Gemini Flashはいずれも商用APIのため、大量利用時のコストが課題になります。Mistral Small 4はローカルで動かせるため、データをクラウドに送らずにAI処理ができる点でも、医療・法律・金融など機密性の高い業務に向いています。


ローカル実行方法——Ollamaでの起動

Mistral Small 4はOllamaを使えば数コマンドでローカル実行できます。

前提条件

  • RAM: 48GB以上(Q4量子化の場合、24GB GPUでも動作可能)
  • GPU: NVIDIA RTX 4090 / A100推奨

インストールと起動

# Ollamaのインストール(未インストールの場合)
curl -fsSL https://ollama.ai/install.sh | sh

# Mistral Small 4モデルのダウンロードと起動
ollama run mistral-small4

# 推論深度を指定して実行(deepモード)
ollama run mistral-small4 --reasoning deep

画像入力の使い方(Python)

import ollama

response = ollama.chat(
    model="mistral-small4",
    messages=[
        {
            "role": "user",
            "content": "このグラフを分析して、主要なトレンドを説明してください",
            "images": ["./chart.png"]
        }
    ]
)
print(response["message"]["content"])

どんな用途に向いているか

Mistral Small 4が特に力を発揮するユースケースを整理します。

ローカルAI開発・自社サービス組み込み: Apache 2.0ライセンスにより、商用サービスへの組み込みが無償で可能です。APIコストを気にせず大量処理できます。

セキュリティ重視の業務: 医療カルテ分析・法律文書レビュー・社外秘の技術仕様の処理など、クラウドにデータを送れない用途に最適です。

マルチモーダルな研究・開発: 論文の図表理解→内容の要約→コード実装という一連の作業を1モデルで完結させたい研究者・エンジニアに向いています。

エッジデバイス・中規模クラウド: MoEアーキテクチャのおかげで推論コストが低く、GPT-4クラスの性能を中規模のハードウェアで実現できます。


まとめ

Mistral Small 4は、オープンソースAIの「統合化」という新しいトレンドを体現するモデルです。推論・視覚・コーディングという3つの専門能力を1モデルに凝縮し、Apache 2.0ライセンスで商用利用を無償開放している点は、企業・開発者にとって大きな魅力です。GPT-4o miniやClaude Haikuと比べると、ローカル実行のハードルはあるものの、データ主権とコスト効率を重視する用途では最有力の選択肢となりそうです。