速報|AIのトレーニングが電網を「食いつぶす」:Niv-AIが1,200万ドルのシードラウンドを獲得、GPU負荷の急増問題を解決

画像提供:Niv-AI

電力は人工知能の重要な原材料だが、新しい処理技術はデータセンター運営者が電力網との関係を管理する能力を超えており、その結果、電力使用量を最大30%削減せざるを得なくなっている。

「これらのAIファクトリーは電力を無駄に使い過ぎている」と、NVIDIAの最高経営責任者ジェンスン・ファンは同社の年次GTCカスタマーイベントの基調講演で述べた。同社はこの年次発表会でこう宣言した。「利用されない1ワットの電力は、収益の損失だ。」

現在、イスラエル・テルアビブを拠点とするスタートアップNiv-AIは、1,200万ドルのシードラウンド調達によりステルスモードを終了し、新型センサーによるGPU消費電力の正確な測定と、電力使用をより効率的に管理するツールの開発を通じてこの問題に取り組んでいる。

特拉ビブに本社を置くこのスタートアップは、CEOのトモル・ティモルとCTOのエドワード・キジスによって昨年設立され、投資家にはGlilot Capital、Grove Ventures、Arc VC、Encoded VC、Leap Forward、Aurora Capital Partnersが名を連ねる。

最先端の研究所が数千台のGPUを連携させて高度なモデルの訓練と実行を行う際、プロセッサーは演算タスクと他のGPU間の通信を切り替えることが多く、これによりミリ秒単位の電力需要の急増が頻繁に生じている。

こうした急増により、データセンターは電力網からの電力供給管理が困難になる。供給不足を避けるため、データセンターは一時的なエネルギー貯蔵にコストをかけて対応するか、GPUの使用を制限しなければならない。いずれの場合も、高価なチップの投資収益率が低下する。

「現在のやり方でデータセンターを増設し続けることはできない」と、Grove VenturesのパートナーでありNivの取締役でもあるリオール・ハンデルマンは述べた。

Nivのロードマップの第1ステップは現状を把握することだ。現在、同社はラックレベルのセンサーを導入し、自社のGPUおよび設計パートナーのGPUの消費電力をミリ秒単位で監視している。目的は、異なるディープラーニングタスクごとの具体的な電力消費特性を理解し、データセンターが既存の演算能力をさらに引き出せるような緩和技術を開発することである。

当然、エンジニアは収集したデータに基づいてAIモデルを構築し、データセンター内の電力負荷を予測・同期させることを期待している。これにより、データセンターエンジニアの「コパイロット」となることを目指している。

Niv-AIは今後6〜8ヶ月以内に、米国の一部のデータセンターで運用可能なシステムを導入すると見込んでいる。土地利用の課題やサプライチェーンのボトルネックに直面しているハイパースケール事業者にとって、これは魅力的なソリューションだ。創業者は、究極の製品をデータセンターと電力網の間に欠けている「インテリジェントレイヤー」と位置付けている。

「実際、電力網はデータセンターが特定の時間帯に過剰な電力を消費することを懸念している」とティモールはTechCrunchに語った。「私たちが取り組んでいる課題は、ロープの両端のようなものだ。一方ではデータセンターがより多くのGPUを活用し、すでに支払った電力を最大限に使えるように支援する。もう一方では、データセンターと電力網の間により責任ある電力配分を築くことだ。」

参考資料:https://techcrunch.com/2026/03/17/niv-ai-exits-stealth-to-wring-more-power-performance-out-of-gpus/

画像 画像 画像 画像 画像

分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.