一晩で AI が「永久記憶」を獲得!最難関試験で SOTA を 99% 更新、世界中が「狂気」と叫ぶ

画像

新智元 報道

編集:桃子、好困

【新智元ダイジェスト】AI ついに「永久記憶」を獲得!本日、超記憶システム「ASMR」が衝撃登場。業界で最も困難とされる AI 記憶ベンチマーク「LongMemEval」において、SOTA(最先端技術)を圧倒し、正解率 99% を記録しました。ネット上では「狂気の沙汰だ」との声が溢れています。

AI の記憶に関する難題は、もはや完全に解決されたのでしょうか?

画像

今日、Supermemory チームが世界中に核爆弾のようなニュースを投げつけました。

超記憶システム「ASMR」が登場し、AI 記憶分野において最も困難な試験である LongMemEval において、驚異的な正解率 99% を達成したのです。

画像

世界中で数十億ものエージェントが記憶を必要としていますが、今や AI の「健忘症」はほぼ克服されつつあります。

そうです、耳を疑うような話ですが、事実なのです。

ASMR は無敵ともいえるパフォーマンスで SOTA を総なにし、瞬く間に X(旧 Twitter)のトレンド入りを果たしました。

画像画像

このシステムは、従来の「ベクトルデータベース」や埋め込み(embedding)モデルを完全に排除し、すべてをメモリ上で動作させることに成功しました。

今回の ASMR は、「マルチエージェント並列推論」というパイプラインを完全に採用しており、具体的な役割分担は以下の通りです。

3 体の「オブザーバーエージェント」が並列で生データを読み取り、個人情報、嗜好、タイムラインなど 6 次元の情報を抽出します。

ユーザーからの質問に対しては、さらに 3 体の「サーチエージェント」を投入し、能動的な推論と検索を実行します。

今やネット上は「狂気だ」という声で埋め尽くされています。

画像画像画像画像

(上下にスライドして詳細をご覧ください)

特筆すべきは、ASMR の全コードが 4 月初旬にオープンソース化される予定であり、これにより AI 記憶の「大航海時代」が幕を開けるということです。

画像

一晩で AI が「永久記憶」を獲得

まず、この記事の冒頭の言葉を改めて確認しておきましょう。

「AI エージェントの記憶問題は、もはや完全に解決された可能性がある」

画像

数ヶ月前、Supermemory が最初の研究レポートを発表した際、LongMemEval-s テストで 85% のスコアを記録していました。

このスコアは、当時のあらゆる公開メモリシステムを凌駕するものでした。

そして本日、超記憶システム「ASMR(エージェント検索・記憶検索)」の登場により、その記録が再び塗り替えられたのです。

その技術的実現方法は、驚くほどシンプルです。

ベクトルデータベースも埋め込み(embeddings)も不要。すべてをメモリ上で直接動作させます。

これは、他のシステムはもとより、ロボットなどのハードウェアへの組み込みも可能であることを意味します。

それでは、ASMR は具体的にどのようにして構築されたのでしょうか。

画像

ASMR:マルチエージェントが並列で稼働

ご存知の通り、LongMemEval は現在公開されている中で、最も苛酷な長期記憶ベンチマークの一つです。

多くのベンチマークが短脈絡における単純な検索のみを評価するのに対し、LongMemEval は実稼働環境で発生しうる混沌を模倣することを目的としています。

11.5 万トークンを超える対話履歴、相互に矛盾する情報、複数のセッションにまたがる断片的な事象、そして時間的推論を要する複雑な問題群。

画像

多くの記憶システムが苦戦する原因は、「推論」ではなく「検索」にあります。

たとえ再現率が高くても、検索プロセスで大量のノイズが混入すれば、LLM(大規模言語モデル)はその情報を活用できません。

第一の課題は、いかにして正解の情報のみをコンテキストウィンドウに投入するか。さらに困難なのは、検索された事実が古く、既に更新版に置き換わっていると、いかにして判断するかです。

それだけではありません。標準的なベクトル検索は、多くの場合で有用です。

しかし、情報密度が高く、複数セッションにまたがる時系列データの細部を扱う段になると、途端に力不足に陥ります。意味的類似度によるマッチングでは、ある事実が「旧情報」なのか「新修正」なのかを信頼性高く区別できないのです。

LongMemEval の複雑さに対処するためには、情報取り込みから検索までのパイプラインを根本から再設計し、ベクトル演算に代わって能動的なエージェント推論を採用する必要がありました。

これにより、チームは従来の RAG(検索拡張生成)フレームワークを脱却し、「マルチエージェント連携オーケストレーション」というパイプラインを構築したのです。

画像

3+3 のエージェント、それぞれの役割

ASMR もそうですが、この技術は極めてシンプルでありながら、非常に完成度が高いのです。

画像

オブザーバーエージェント:並列取り込み

まず、3 体の並列リーダーである「オブザーバーエージェント」で構成されるエージェントオーケストレーターを配備します。

これらは Gemini 2.0 Flash によって強化されており、ユーザーとの対話をチャンク(小分け)化したり埋め込んだりすることなく、タスクを実行できます。

これらのエージェントは、元のセッションを並行して読み込みます。例えば、エージェント 1 がセッション 1、3、5 を、エージェント 2 が 2、4、6 を担当する、といった具合です。

オブザーバーエージェントの目的は、「6 つの次元」に焦点を当てた知識抽出です。個人情報、嗜好、イベント、時系列データ、情報の更新、アシスタント情報の 6 点です。

そして、これらの構造化された発見は、「ネイティブストレージ」に保存され、元のセッションにマッピングし直されます。

画像

サーチエージェント:能動的検索

質問を受け取ると、ASMR はベクトルデータベースを照会することはありません。

代わりに、配備された 3 体の並列「サーチエージェント」が、保存された発見を能動的に読み込み、推論を行います。各エージェントには専門分野があります。

エージェント 1:直接的な事実と明言された記述を検索。
エージェント 2:関連する文脈、社会的手がかり、含意を探る。
エージェント 3:タイムラインと関係グラフを再構築。

オーケストレーターは、これら 3 体の「サーチエージェント」による発見をすべて集約し、原文のセッションから一字一句を抽出して詳細な検証を行います。

このメカニズムにより、システムは単なるキーワードや数学的類似度への依存ではなく、真の認知的理解に基づいたインテリジェントな検索を可能にします。

コンテキストの統合が完了しても、単一のプロンプトでは LongMemEval に含まれる多様な質問には対応しきれません。

詳細の推論を要する問題もあれば、極めて具体的な答えを要求する問題もあります。

そこで Supermemory は、全く異なる 2 つの AI エージェント応答ワークフローを試みました。

画像

8 変種クラスタ(正解率 98.6%)

検索されたコンテキストを、並列実行される 8 種類の高度に特殊化されたプロンプト変種にルーティングします。

例えば、「精密カウンタ」「時間専門家」「コンテキスト深掘り」などがあり、各変種が独立してコンテキストを評価し、回答を生成します。

この 8 通りの全く異なる推論パスのうち、1 つでも正解(グラウンドトゥルース)にたどり着けば、その問題は正解とみなされます。

この並列的な多重判断アプローチにより、ASMR は驚異的な全体正解率 98.60% を達成し、死角を完全にカバーしました。

画像

12 変種決定論の森(正解率 97.2%)

単一の権威ある回答を出力することを目的とし、複数の独立した試行に依存するシステムを検証するため、チームは ASMR を 12 の変種からなる「決定論の森」へと拡張しました。

ここでは、12 体の高度に特殊化された AI エージェント(GPT-4o-mini 搭載)が、プロンプトに対して独立して回答します。

さらに、最終的な審判役として「集約用大規模モデル」を導入しました。

集約器は、多数決、ドメイン信頼度、矛盾解決メカニズムを通じて、これら 12 の回答を統合します。

この単一の合意形成モデルもまた、驚異的な正解率 97.2% を記録しました。

画像

なお、ASMR は現時点では Supermemory の中核的な本番環境では使用されていません。

画像

今回の実験はデータを更新しただけでなく、いくつかの重要な知見を検証する結果となりました。

  • エージェント検索はベクトル検索に優る:能動的検索により、意味的類似度の罠を排除し、時系列変化による情報の陳腐化問題を解決しました。
  • 並列処理が効率の要:負荷を複数の専用エージェントに分散させることで、抽出速度と粒度を大幅に向上させました。
  • 汎用モデルより専門的分業:専用エキスパート(詳細抽出機など)のパフォーマンスは、単一の万能プロンプトを遥かに凌駕しました。

画像

真の野望は Supermemory

しかし、ASMR が単なるベンチマーク攻略の実験だとお思いなら、このチームを過小評価しすぎています。

ASMR の背後には、Supermemory という完全な記憶エンジン、つまりすべての AI アプリケーション向け記憶・コンテキストインフラが存在します。

「Your AI forgets everything between conversations. Supermemory fixes that.(あなたの AI は会話のたびに全てを忘れます。Supermemory がそれを修正します)」

AI は会話のたび全てを忘れてしまいますが、Supermemory がそれを解決します。

画像

GitHub アドレス:https://github.com/supermemoryai/supermemory

画像

記憶≠RAG、これは別物

前述の ASMR は「膨大な対話からいかに正確な情報を見つけ出すか」を解決するものです。

一方、Supermemory が解決しようとしているのは、より壮大な課題、つまり AI に単なる検索ではなく、真の「記憶」を持たせることです。

画像

その違いとは、RAG は相手を識別しません。今日張三に返す結果と、明日李四に返す結果が全く同じになります。一方 Supermemory は、対話から能動的に事実を抽出し、変化を追跡し、矛盾を処理し、さらには自動的に忘却することさえ行います。

例を挙げましょう。先月 AI に「北京に住んでいる」と伝えたが、今月「上海に引っ越した」と言ったとします。RAG なら両方の情報を大規模モデルに投げつけ、推測させようとします。しかし Supermemory は、後者が前者を上書きしたと理解し、「上海」のみを返します。

さらに強力なのが「自動忘却」メカニズムです。「明日試験がある」と言えば、その日付を過ぎれば、その記憶は自動的に無効になります。一時的な事実が永続的なノイズになることはありません。

Supermemory はデフォルトで RAG と記憶を同一クエリ内で統合して動作させ、知識検索と個別化コンテキストを一度に返します。

画像

50 ミリ秒、1 回の API 呼び出しでユーザー像を把握

記憶機能に加え、Supermemory はユーザープロファイリングも一手に引き受けます。

従来の方法では、AI にユーザーを「認識」させるため、ユーザープロファイルシステムを自ら構築し、ラベルや嗜好、過去の行動を手動で管理する必要がありました。Supermemory はこれを完全に自動化します。

ユーザー情報は 2 階層に分解されます。

  • 静的な事実(「上級エンジニア」「Vim 愛用」「ダークモード派」など)
  • 動的なコンテキスト(「現在認証モジュールの移行中」「レート制限の問題をデバッグ中」など)

API を 1 回呼び出すだけ、遅延時間は約 50 ミリ秒。これであなたのエージェントは、向かいに座っているのが誰かを即座に把握します。

このプロファイルをシステムプロンプトに注入すれば、エージェントは「初対面モード」から瞬時に「旧知の友人モード」へ切り替わります。

画像

「オールインワン」な接続性

記憶機能は対話だけでは不十分です。Supermemory は外部データソース全体とも接続しています。

Google Drive、Gmail、Notion、OneDrive、GitHub など、すべてがリアルタイム Webhook 経由で自動同期されます。

画像

ドキュメントをアップロードするだけで、PDF 解析、画像 OCR、動画の書き起こし、コードの AST レベルでの分割が自動処理されます。アップロードしたその場で検索可能。設定は不要です。

開発者にとって、統合コストは最小限に抑えられています。

npm でパッケージを 1 つインストールし、数行コードを書けば、自身のエージェントに完全な記憶機能を追加可能。Vercel AI SDK、LangChain、LangGraph、OpenAI Agents SDK、Mastra など、主要な AI 開発フレームワークには全て標準でラッパーが用意されています。

画像

Claude Code、OpenCode、OpenClaw 各プラグインを標準搭載。

コードを書かなくても構いません。

Supermemory は MCP サーバーを提供しており、コマンド 1 行でインストール可能。Claude Desktop、Cursor、Windsurf、VS Code ですぐに使えます。

画像

記憶を巡る戦いは、始まったばかり

実験から製品へ。Supermemory チームが行っていることは、一言で言えば「AI の『作業記憶』を、追加機能からインフラ層へと昇華させる」ことに尽きます。

ここ数年、大規模モデルを巡る競争は、パラメータ規模、推論速度、コンテキストウィンドウの長さに集中していました。

しかし、128K のコンテキストウィンドウがどれほど大きくても、対話が終われば全て消去され、次回会った時には再び他人のままでした。

記憶こそが、AI を「ツール」から「パートナー」へと変える最後のピースなのです。

すべてのエージェントが、あなたが誰で、何をしていて、前回どこまで話したかを記憶できるようになれば、人間と機械のインタラクション体験には静かなる質的変化が訪れるでしょう。

AI が賢くなったのではありません。ついに「忘却」を免れたのです。

参考資料:https://x.com/DhravyaShah/status/2035517012647272689?s=20

秒速で ASI(人工超知能)を追う

⭐いいね!、シェア、視聴をワンクリックで⭐

スターを点灯して、新智元の最速配信をロックオン!

画像画像


分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.