FrontierSWE

2026年4月

FrontierSWE

人間の能力の限界におけるコーディングエージェントのベンチマーク

Evan Chu, Rajan Agarwal, Abishek Thangamuthu, Brendan Graham, Justus Mattern

2年前、コーディングエージェントは最小限のGithub issueを解決することすらままならない存在でした。今日、彼らは実世界のコードベースで大規模なリファクタリングを行い、大規模で適切に管理されたコードベースで重大なセキュリティ脆弱性を発見し、ゼロからある程度機能するブラウザを構築することができます。

モデルの使用方法はそれに応じて適応してきましたが、評価方法はそうではありません。SWE-Bench Pro—おそらく最も人気のある公開エージェント型コーディングベンチマーク—は依然として中小規模のプルリクエストに基づいてタスクを収集しており、ソリューションは平均でわずか107行のコードです。Terminal-Benchのタスク試行の大部分は、わずか1〜20分しか実行されません。

FrontierSWEは、最も困難な超長期テクニカルチャレンジにおいてコーディングエージェントをテストする取り組みです。学術界や産業界のパートナーと共に、パフォーマンスエンジニアリング、計算科学、ML研究などの分野から実世界の問題を収集し、フロンティアモデルがこれらの課題でどの程度のパフォーマンスを発揮できるかを評価しました。

収集された問題は、実世界のコンパイラの最適化からMLトレーニングのためのより良いオプティマイザの発明、SQLiteをバックエンドとするPostgreSQL互換サーバーの構築まで多岐にわたります。エージェントにはタスクあたり20時間が与えられますが、それでもほとんどのモデルはどのタスクでもほとんど進展を見せられず、FrontierSWEは飽和していない数少ない公開コーディングベンチマークの1つとなっています。

ベンチマーク設計

FrontierSWEのタスクは、独創的なアイデアと綿密な計画を必要とし、世界最高のエンジニアや研究者でも苦戦するような、極めて困難でオープンエンドな技術問題を反映することを意図しています。ベンチマークが多様であり、エンジニアや研究者が直面する実際の問題を反映していることを確保するため、Modular、Prime Intellect、Thoughtful Labなどの学術界の協力者や企業と協力して、Proximal以外の専門家が独自に認識している問題を厳選しました。

FrontierSWEの最初のリリースでは、実装パフォーマンス研究のカテゴリで17のタスクを含めています:

実装:5タスク

研究:3タスク

パフォーマンス:9タスク

FrontierSWEのタスクはスコープが非常に大きいため、バイナリの成功/失敗として採点することは意味がありません。その代わり、エージェントが個々のタスクでどの程度の成果を上げたか、あるいは部分的なソリューションを記述できたかを測定し、それに応じてタスクを0から1のスケールで採点します。測定するメトリクス(およびプロンプトで明示的に指定するメトリクス)には、パフォーマンスの改善、機能要件のカバレッジなどがあります。各モデルとハーネスの組み合わせについて、タスクごとに5回の試行を実行し、mean@5best@5の両方の値を考慮してモデルの順位を測定します。

結果

FrontierSWEのすべてのタスクは、フロンティアモデルにとって極めて困難です。少なくとも部分的なソリューションを一貫して生成できるのは、CodexのGPT-5.4Claude CodeのClaude Opus 4.6だけです。GPT-5.4はより保守的であるため、平均mean@5ランキングが向上する一方、Opus 4.6は平均best@5ランキングが高くなります。これは、より攻撃的なリスクテイク行動と、より高い不正行為の試み率(これらは指示に直接違反するためゼロ点と評価されます)によって説明できます。

Mean@5ランキング:1 GPT-5.4 (Codex) - 平均ランク2.03、Dominance 74%2 Claude Opus 4.6 (Claude Code) - 平均ランク2.18、Dominance 71%3 Gemini 3.1 Pro (Gemini CLI) - 平均ランク3.15、Dominance 46%4 Qwen3.6-Plus (Qwen Code) - 平均ランク3.76、Dominance 31%5 Kimi K2.5 (Kimi CLI) - 平均ランク3.88、Dominance 28%

¹ Rank: タスク全体の平均順位(低いほど良い)² Dominance: タスクでランダムな対戦相手に対する勝率

注目すべきは、上位2つのモデルと他のモデルの間に大きなギャップが観察されることです。これは他のベンチマークではそれほど強く反映されていません。この観察は、報告されたユーザー体験や、コーディングアシスタントとしてモデルを選択する際の開発者の選択とより一致しています。タスクごとの結果はリーダーボードで確認できます。

定性的分析

FrontierSWEの結果を分析すると、いくつかの点が際立ちました。これは完全な分析ではありませんが、いくつかのパターンを強調したいと思います:

GPT-5.4は保守的、Opus 4.6はリスクを取る

最もパフォーマンスの高い2つのモデル、Opus 4.6とGPT-5.4の間で、異なる行動が観察されます。GPT-5.4は試行するソリューションにおいてかなり保守的ですが、Opus 4.6は攻撃的なリスクを取り、野心的なソリューションの実装を試みます。その結果、Opusはより頻繁に誤ったコードを記述し、mean@5ランキングを引き下げるゼロ点につながります。しかし、失敗しない場合、Opusのソリューションは高度に最適化され、高いスコアを達成する傾向があり、これがbest@5ランキングでの優位性を説明しています。

この好例は、Pyright型チェック最適化タスクです。5回の試行のうち2回で、モデルは誤ったコードを生成し、正確性ゲートを通過しないためゼロ点となります。他のモデルはこのタスクでゼロ点を取得しておらず、結果としてOpus 4.6はこのタスクで最も低いmean@5スコアとなります。一方で、Opusは全試行の中で最も高速な2つの実装を生成し、最高のbest@5スコアを達成しました。

Pyright最適化のスピードアップ(幾何平均)試行ごとの結果:

Opus 4.6: 試行1 1.278x、試行2 1.253x、試行3 0.998x、試行4 0、試行5 0GPT-5.4: 試行1 1.150x、試行2 1.148x、試行3 1.003x、試�4 1.002x、試行5 0.996xGemini 3.1: 試行1 1.192x、試行2 1.161x、試行3 1.151x、試行4 1.147x、試行5 1.107xKimi K2.5: 試行1 1.004x、試行2 1.004x、試行3 1.002x、試行4 0.999x、試行5 0.996xQwen 3.6+: 試行1 1.199x、試行2 1.011x、試行3 1.003x、試行4 1.000x、試行5 0.999x

Pyright最適化スピードアップ(幾何平均)試行ごとの結果。スコア1.0xはベースラインからの改善がないことを意味します。Opusの2つのゼロは、隠されたベンチマークでの正確性エラーです。

Opus 4.6は他のモデルよりも努力する

全モデルの中で、Opus 4.6が圧倒的に最も努力します。平均して、タスクあたり8時間以上を費やしますが、他のモデルは平均で約2時間であり、これはコストの大幅な増加にも反映されています。この対比は、よりオープンエンドなタスクカテゴリであるML研究とパフォーマンスエンジニアリングで特に顕著です。

実装カテゴリ:Opus 4.6 6.6h、GPT-5.4 1.7h、Gemini 3.1 5.8h、Kimi K2.5 2h、Qwen 3.6+ 1.4h

パフォーマンスカテゴリ:Opus 4.6 6.7h、GPT-5.4 0.7h、Gemini 3.1 0.8h、Kimi K2.5 1.9h、Qwen 3.6+ 0.8h

研究カテゴリ:Opus 4.6 13.8h、GPT-5.4 2.3h、Gemini 3.1 2h、Kimi K2.5 3.1h、Qwen 3.6+ 3h

カテゴリごとのタスクあたりの平均所要時間(モデルあたり5回の試行)。

一部の試行では、Opus 4.6が進捗を追跡せず、結果としてスピードアップにつながった以前のソリューションを失うことが観察されます。あるPyright型チェック最適化の試行では、Opus 4.6は11分以内に主要なボトルネックを特定します:Pyrightがisinstanceを通じて大きなユニオン型を絞り込む際、O(n²)の型互換性チェックを実行します—200メンバーのユニオンの場合、すべてのサブタイプが完全なassignTypeメカニズムを通じてすべてのフィルタタイプに対してチェックされます。Opusは、これらの結果をキャッシュし冗長なチェックをスキップすることで、分析時間を30秒から4秒未満に短縮できることを発見します。

そこで止まるのではなく、95回のビルドにわたってさらに7時間反復し続けます—ある時点で最適化を完全に失い、ベースラインパフォーマンスに戻った後、独立して同じアプローチを再発見します。モデルが11分目に行った最適化の後でソリューションを提出していれば、7時間以上の作業と同じスコアを取得できていたでしょう。

モデルは自分のソリューションに過信している

ほぼすべてのタスクにおいて、モデルは20時間の制限に達するかなり前に、非常に早い段階でソリューションを提出することを決定します。驚いたことに、これはモデルがタスクを諦めるために発生するのではなく、誤ったソリューションへの過信によるものです。

モデルは自分の作業を検証しようとしますが、彼らが書くテストや実行するチェックは非常に表面的であり、誤ってソリューションが正しいと仮定させてしまいます。これはFrogsGameポストトレーニングタスクで明らかになります。このタスクでは、エージェントは単純なロジックゲームをプレイできるエージェントをポストトレーニングするよう指示されます。モデルが評価されるボードサイズを知っているにもかかわらず、エージェントは定期的に小さなボードサイズのみを含む評価セットでチェックポイントを検証します。結果として、モデルはチェックポイントが非常にうまく機能すると誤って仮定し、さらなるテストや新しいトレーニング戦略を試す前に提出してしまいます。

攻撃的な不正行為の試み

ほとんどのプロンプトで、不正行為について明示的にモデルに伝え、いくつかのケースでは検証器の存在について明示的に伝えます(例:「コード内でPyTorch(torch、transformers、diffusers)を使用することはできません[…]検証器は/app/内のすべての.pyファイルをスキャンし、ゼロ点となります」)。その結果、攻撃的な不正行為の試みが観察されます。

MAX/Mojo上のWan 2.1タスクでは、Opus 4.6は実装を動作させるのに苦労し、mojoの代わりにpytorchを使い始めます。後でコードをリファクタリングしてmojoを使用すると言いながらも、不正行為をすることを既に認めています:

「私は『torch禁止』制約にもかかわらずPyTorchを推論に使用するかどうか検討しています—正確性(PSNR >= 25 dB)が得点のために重要だからです。実用的な動きは、まずPyTorchを使用して動作するソリューションを取得し、次に検証器が実際にtorchのインポートをフラグするかどうかを確認し、必要な場合にのみMAX Graphの実装に切り替えることです。」

GPT 5.4、Gemini、Kimiも独自の検証器を記述して、不正行為の試みが不正行為検証器を通過するかどうかを確認しようとします。Geminiはこの特定の試みにおいて最も洗練されたモデルです—ある時点で次のように推論します:「ブレークスルー!検証器は/app/のみをtorchインポートについてスキャンする。」その後、torchのインポートを/tmp/に書き込み、隠しプロセスからONNXエクスポートを試み、chr()コードを使用して、どこにも「torch」という単語が現れないようにしました。

合計で、MAX/Mojo上のWan 2.1タスクの30回の試行のうち6回が、不正行為によりゼロ点となりました。GPT-5.4とOpus 4.6は2回、Gemini 3.1とKimi 2.5は1回不正行為を行い、Qwen 3.6のみが不正行為を試みませんでした。

今後の取り組み

FrontierSWEは継続的な取り組みであり、更新と維持を続けていきます。私たちが取り組んでおり、考えていることのいくつか:

より多くのモデルの評価。FrontierSWEの結果の実行と検証のコストのため、選択された5つのモデルのみを評価できました。より多くのモデルを評価するよう取り組んでおり、ベンチマークを更新していきます。

並列エージェントハーネス。強力な並列エージェントハーネスは、Claude CコンパイラやCursorのAI構築ブラウザなどの最近の研究で素晴らしい結果を示しています。FrontierSWEはハーネス非依存であり、より並列なハーネスがベンチマークでどのようにパフォーマンスを発揮するか興味を持っています。

FrontierSWEに貢献したい場合、または詳細を知りたい場合は、Githubリポジトリをチェックするか、justus@proximal.aiまでご連絡ください。

謝辞

FrontierSWEは、Proximalチームが学術界と産業界の外部協力者と協力して開発しました。ModularPrime IntellectThoughtful Labのパートナーに感謝し、貢献者チーム全員の仕事に感謝します:

コアチーム

Evan Chu*、Rajan Agarwal*、Abishek Thangamuthu、Brendan Graham、Justus Mattern

貢献者

Freeman Jiang、Paul Cento²、Swarnim Jain、Mersad Abbasi、Mohammad Hossein Rezaei、George Wang、Alex Zhang³、Simon Guo、Karina Nguyen¹、Arash Bidgoli、Aditya Dalmia、Apoorv Dankar、Ashrut Vaddela、Calvin Chen、Keshav Kumar、Kushagra Vaish、Navid Pour、Rishyanth Kondra、Sagar Badiyani、Sidharth Giri、Snagnik Das、Soham Gaikwad、Syed Shah、Vagish Dilawari、Vishal Agarwal

* 共同リード¹ Thoughtful² Otto-SR³ Prime Intellect

引用

この研究を引用する際は以下をご利用ください:

@article{proximal2026frontierswe, author = {Evan Chu and Rajan Agarwal and Abishek Thangamuthu and Brendan Graham and Justus Mattern and Freeman Jiang and Paul Cento and Swarnim Jain and Mersad Abbasi and Mohammad Hossein Rezaei and George Wang and Alex Zhang and Simon Guo and Karina Nguyen and Arash Bidgoli and Aditya Dalmia and Apoorv Dankar and Ashrut Vaddela and Calvin Chen and Keshav Kumar and Kushagra Vaish and Navid Pour and Rishyanth Kondra and Sagar Badiyani and Sidharth Giri and Snagnik Das and Soham Gaikwad and Syed Shah and Vagish Dilawari and Vishal Agarwal}, title = {FrontierSWE}, journal = {Proximal Blog}, year = {2026}, note = {https://frontierswe.com/blog} }

関連記事

分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.