MSA のコードが予定通りオープンソース化されました!

数週間前、@EverMind 氏が「メモリスパースアテンション(MSA)」に関する論文を発表しました。この研究は、最大 1 億トークン(本 1,000 冊分に相当)までの情報を記憶し、性能低下を 9% 未満に抑えつつ正解を導き出すシステムを構築するものです。複数のベンチマークテストにおいて、このパラメータ数 40 億のモデルは、自らの 58 倍の規模を持つモデルを基盤とした RAG システムさえも上回る性能を示しました。

その中核となる発想は以下の通りです。個別のデータベースを検索し、正しい情報が見つかることを期待する(RAG アルゴリズムの動作原理)のではなく、記憶機能そのものをモデルの思考プロセスに直接組み込むというものです。これにより、何を記憶し何を無視するかを、個別の検索プロセスを介さずにエンドツーエンドで学習することが可能になります。

論文発表後、産業界に大きな反響を呼び、研究と共同進歩のためにソースコードの公開が強く待たれていました。そして昨日、EverMind 氏はその約束を果たし、プロジェクトコードの完全なオープンソース化を実現しました。公開から 24 時間以内に 2,500 のスターを獲得しており、この技術に対する関心の高さが伺えます。

プロジェクト概要

長期記憶は汎用知能の基盤ですが、フルアテンションの計算上のボトルネックにより、大半の大規模言語モデル(LLM)の実質的なコンテキスト長128K〜1M トークンに制限されています。既存の解決策である混合線形アテンション、固定サイズの状態記憶(RNN など)、あるいはRAG/エージェントなどの外部ストレージは、極端な長さにおいて精度が急速に低下したりレイテンシが増大したりするか、エンドツーエンドの微分可能性や動的記憶管理機能を欠き、あるいは複雑なエンジニアリングパイプラインを必要とするという課題を抱えていました。私たちが提案するのはメモリスパースアテンション(MSA)です。これはエンドツーエンドで訓練可能かつ拡張可能なスパースな暗黙的状態記憶のフレームワークです。その中核的なアイデアは以下の通りです。

  • 拡張可能なスパースアテンションドキュメント単位の RoPE(並列/グローバル)を組み合わせ、訓練・推論の両方においてほぼ線形の計算量を実現します。
  • KV キャッシュの圧縮メモリの並列処理を備えた推論エンジンにより、2×A800 GPU上で1 億トークンのスループットを達成します。
  • 分散した記憶断片にわたるマルチターン・マルチホップ推論を可能にするメモリの織り交ぜ(Memory Interleaving)メカニズムを搭載しています。

長いコンテキストを要する質問応答や NIAH(Needle In A Haystack:干し草の山の中の針)ベンチマークにおいて、MSAは同 backbone の RAG や最先端の RAG 手法、そして主要な長期コンテキストモデルを凌駕しました。前例のない16K から 1 億トークンの範囲において、MSA は9% 未満の性能低下に留まり、記憶容量と推論能力を分離するための実行可能な道筋を示しました。

16K から 1 億トークンへの拡張:MSA は top-k 選択とスパースアテンションを融合させ、推論時にドキュメントの非結合を可能にしながらもエンドツーエンドの微分可能性を維持します。MS MARCO において、MSA の性能低下は9% 未満であり、強力な外挿能力を示しています。一部のベースライン曲線はコンテキスト長の制限により早期に終了しています。

図 1: 16K→1 億トークンの拡張曲線

図 1: 超長文脈における MSA の拡張性


主な貢献

  • メモリスパースアテンション(MSA)エンドツーエンドで訓練可能拡張可能なスパースアテンションレイヤーであり、ドキュメント単位の RoPEと組み合わせることでO(L)の計算量を実現し、16K から 1 億トークンへの拡張において性能低下を9% 未満に抑えます。
  • KV キャッシュ圧縮+メモリ並列処理:階層的ストレージ(ルートキーは GPU、コンテンツ K/V は CPU に配置)と分散スコアリング、オンデマンド転送により、2×A800上で1 億トークンの推論を実現します。
  • メモリの織り交ぜ:「生成的検索→コンテキスト拡張→生成」を適応的に交互に実行し、ドキュメント横断的なマルチホップ推論能力を大幅に向上させます。
  • 包括的な評価:MSA は長期コンテキスト QA や NIAH ベンチマークにおいて、同 backbone の RAG や最先端の RAG 手法、主要な長期コンテキストモデルを上回り、大規模環境下でより優れた安定性精度を示しました。

全体設計

アーキテクチャ

MSA は検索と生成を微分可能な閉ループに統合します。ドキュメントの暗黙的状態(K/V/Kᵣ)はチャンク単位の平均プーリングによって圧縮されます。ルーティングプロジェクタはコサイン類似度を用いて関連性を計算し(アテンションヘッドの平均後、トークンごとの最大値を取得)、Top-k ドキュメントを選択します。その後、圧縮された K/VをクエリのローカルなK/Vと連結し、自己回帰的デコードに使用します。ルーティングは上位層でのみ機能し、下位層独立したドキュメント処理を維持することで階層アライメントを実現します。

  • 並列(ドキュメント単位)RoPE:各ドキュメントの位置を 0 から再設定することで、短い訓練と長い推論の間の位置のずれを防ぎ、64k での訓練から 1 億への外挿を可能にします。
  • グローバル RoPE(アクティブコンテキスト):クエリの開始インデックスをk(Top-k 検索ブロック数)だけシフトさせることで、背景→クエリ→生成という因果順序を維持します。

図 2: MSA レイヤー

図 2: MSA レイヤー(スパースアテンション+ドキュメント単位の RoPE)

図 2: メモリスパースアテンションレイヤーと並列/グローバル RoPE


推論パイプライン

MSA は3 段階のパイプライン(図 3)を採用しています。

  1. グローバルメモリエンコーディング(オフライン):コーパスに対して順伝播計算を行い、チャンク単位でプーリングされた(K̄, V̄, K̄ᵣ)をキャッシュします。
  2. オンラインルーティングとコンテキスト構築:クエリをQᵣへ投影してK̄ᵣと照合しTop-kを選択し、選択されたK̄/V̄のみをロードしてローカルコンテキストと連結します。
  3. スパース生成スパースなコンテキスト上で自己回帰的生成を行います。

メモリ並列処理によりK̄ᵣを複数 GPU にシャード化します(クエリのブロードキャスト→ローカルスコアリング→グローバルリダクション)。コンテンツのK̄/V̄はホストメモリに保存され、選択された際に非同期で取得されます。これにより1 億トークンのデプロイにおいてGPU メモリスループットの両立を図っています。

図 3: 3 段階の推論とメモリの織り交ぜ

図 3: 推論フロー図 3: オフラインエンコード→オンラインルーティング→スパース生成。マルチホップ推論のためにオプションでマルチターンの織り交ぜも可能


実験結果

実験設定
質問応答:9 つのデータセット(MS MARCO v1、NQ、DuReader、TriviaQA(10M)、NarrativeQA、PopQA、2WikiMultiHopQA、HotpotQA、MuSiQue)、メモリバンク規模277K〜1000 万トークン、評価指標:LLM スコア(0〜5)
NIAH (RULER):8 つのサブタスク、32K〜100 万トークン、平均精度を報告。
Backbone モデル:Qwen3-4B-Instruct-2507。同 backbone の RAG や最先端の RAG 手法(KaLMv2+大規模生成器、オプションで再ランク付けあり)と比較。

表 2: MSA と同 backbone RAG(Qwen3-4B)の比較

要約:平均スコア3.760を達成。標準 RAG 比+16.0%、RAG+再ランク付け比+11.5%、HippoRAG2 比+14.8%の向上(各方式の最適@k を採用)。同 backbone グループ内では、NarrativeQA を除く全データセットで MSA が首位となりました。

データセットトークン数Qwen3-4B R@1R@5R@10Qwen3-4B (RR) R@1R@5R@10HippoRAG2 R@1R@5R@10MSA (適応型)
MS MARCO v17.34M2.8933.0113.0052.9343.0323.0172.6763.0053.0194.141
Natural Questions1.47M3.4523.3743.2973.4943.4083.3853.3383.3893.3743.545
DuReader277K3.7263.5793.5943.8483.6183.6072.9413.4853.4154.155
TriviaQA (10M)10M4.1334.4144.2734.3134.3754.3914.1884.4304.3674.621
NarrativeQA538K1.6112.5672.8603.6383.4923.5361.9592.6282.6553.395
PopQA1.18M2.9593.2733.2993.3153.2643.2663.1113.2493.2493.433
2WikiMultiHopQA722K1.0653.0553.1361.1873.0573.1591.0453.1803.3304.280
HotpotQA1.35M2.2523.5823.7872.6423.9904.0223.2303.7703.9704.061
MuSiQue1.41M0.9361.7521.9281.1441.9601.9651.0201.9072.0952.211
平均2.5593.1793.2422.9463.3553.3722.6123.2273.2753.760

表 2: 同 backbone RAG と MSA の比較(@1/@5/@10 vs MSA @適応型)


表 3: MSA と最先端 RAG(大規模 backbone モデル)の比較

要約KaLMv2+Qwen3-235BおよびKaLMv2+Llama-3.3-70B(再ランク付けの有無を含む)との比較において、MSA は9 つ中 4 つのデータセットで最高スコアを記録しました。平均スコアは3.760であり、各最強構成に対してそれぞれ+7.2%+5.0%+10.7%+5.4%の向上を示しました。一部のデータセット(MuSiQue など)での差は、主にパラメータ数と固有の推論能力の違いに起因するものです。

データセットKaLMv2 + Qwen3-235B R@1R@5R@10Qwen3-235B (RR) R@1R@5R@10KaLMv2 + Llama-3.3 R@1R@5R@10Llama-3.3 (RR) R@1R@5R@10MSA (適応型)
MS MARCO v12.8463.0283.0272.8863.0202.9952.6492.9042.9192.8812.9552.9524.141
Natural Questions3.7113.6703.6943.6213.6103.6453.6753.6743.6623.7563.6653.6473.545
DuReader4.0443.9913.9783.9733.9323.8914.0513.8463.7423.9673.7763.7804.155
TriviaQA (10M)4.3674.6564.5784.4924.3204.5554.2734.7404.7194.5474.7034.6954.621
NarrativeQA1.4132.1302.4273.2123.4273.3751.2902.1232.3823.1503.2633.3173.395
PopQA2.8103.3473.3963.2683.3803.3762.7873.2983.3053.3373.3843.3623.433
2WikiMultiHopQA2.6463.5793.5821.8553.3813.5831.3393.2633.4451.6513.3323.5414.280
HotpotQA3.4974.0904.2253.3414.1414.1943.0703.8964.1273.4284.1454.2034.061
MuSiQue1.9882.4622.6471.8012.5222.6051.7042.3172.2581.8952.4622.6142.211
平均3.0363.4393.5063.1613.5263.5802.7603.3403.3963.1793.5213.5683.760

表 3: 最先端 RAG 手法(強力な検索器+大規模生成器+オプションの再ランク付け)と MSA の比較


図 4: RULER NIAH における安定性(32K→100 万)

要約:MSA は100 万トークンの環境下でも94.84%という高精度を維持しています。一方、改修を施していない backbone モデルは128Kを超えると急激に精度が低下し、100 万時には 24.69%にまで落ち込みます。混合線形アテンションを用いた長期コンテキストモデルも128K/256K 以上で明らかに劣化します。外部メモリ型エージェント(RL-MemoryAgent-14B など)は比較的安定していますが、絶対精度は低く、MSA に比べて減衰幅も大きくなっています。

図 4: RULER NIAH 32K→100 万図 4: コンテキスト長に対する精度の変化(高いほど良い)


実装上の留意点

  • 訓練:1589.5 億トークンを用いた継続的プレトレーニングを実施し、補助ルーティング損失を使用。その後、2 段階の SFT(8k→64kのカリキュラム学習)を行いました。
  • アブレーション実験(論文 表 4):カリキュラム拡張、メモリの織り交ぜ、継続的プレトレーニング、および生テキストの注入はいずれも顕著な貢献をしており、これらを除去すると5%〜37%の性能低下を招きます。

クイックスタート

完全な説明(プロジェクト構造、サポートされるベンチマークなど)についてはQUICK_START.mdをご参照ください。

1. インストール

conda create -n msa python=3.12 -y && conda activate msa
pip install -r requirements.txt
pip install flash-attn==2.7.4.post1 --no-build-isolation

2. モデルのダウンロード

mkdir ckpt
huggingface-cli download --resume-download EverMind-AI/MSA-4B --local-dir ckpt/MSA-4B

3. ベンチマーク用データのダウンロード

ベンチマーク用データは EverMind-AI/MSA-RAG-BENCHMARKS でホストされており、初回実行時に自動的にdata/ディレクトリへダウンロードされます。

4. 実行

# ベンチマークでの推論実行
bash scripts/run_benchmarks.sh eval_benchmark
# LLM スコアの計算
bash scripts/calculate_llm_score.sh eval_benchmark

プロジェクトページ

https://github.com/EverMind-AI/MSA

関連記事

分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.