Anthropicが連邦裁で勝ち、AIの「知能」が0.25%だと判明した週(2026年3月第4週)

★ 1
🎧 この記事を音声で聴く(12:30)

5週間追い続けた話に、決着がつきました。

ニュース収集をリサーチとして動かしていたW09にPentagonの最後通告とAnthropicの拒否があり、W10で「サプライチェーンリスク指定」を書き、W11で「訴訟が始まった」と追い、W12で「法廷で裏側の合意が露見した」と報じました。今週、連邦裁判所が仮差し止め命令を出し、Anthropicが勝った。

でも今週はそれだけじゃなかった。AIの「知能」を測る新しいベンチマークが、フロンティアモデルの限界を残酷なほど明確に数字にした。OpenAIの看板サービスが「1日1,500万ドルの赤字」で終了した。AI業界のサプライチェーンが本物のサイバー攻撃を受けた。

一つの勝利と、いくつもの「現実」が同時に見えた週です。

いつもの通り、ニュースソースは自動ニュース収集システムから。全ニュースはNotionダッシュボードで公開しています。


Anthropic vs Pentagon — 5週間の法廷闘争に決着

3月26日、カリフォルニア北部地区連邦地裁のリタ・リン判事が、仮差し止め命令を発令しました。

「政府のサプライチェーンリスク指定は、修正第1条への違法な報復である」

つまり、Anthropicが完全自律兵器や大規模監視へのAI利用を拒否したことに対する政府の報復的な制裁は、憲法違反だと認定されたわけです。

出来事
W09(2月最終週)Pentagonが最後通告→Anthropicが拒否→サプライチェーンリスクに指定。業界450名超の支持署名
W10(3月第1週)指定の影響が拡大。しかしClaude市場シェアは40%突破という矛盾
W11(3月第2週)Anthropicが連邦政府を提訴。AI業界初の「企業が国を訴える」ケース
W12(3月第3週)法廷書類で「裏側ではほぼ合意だった」事実が露見
W13(今週)連邦地裁が仮差し止め命令を発令。「違法な報復」と認定

さらに今週、Axiosのスクープで面白い情報が出ました。OpenAIのSam Altmanが社内Slackで「Anthropicを救おうとした」と語った内部メモが報道されたのですが、AnthropicのDario Amodei CEOはこれを「嘘だ」と否定。両社の確執が法廷劇の裏側で表面化した形です。

「倫理でビジネスを守れる」前例が生まれた

この判決の意味は、AI業界だけの話じゃないと思っています。

「政府が不快に思う発言をした企業を、政府契約から排除することは違憲」—この先例は、今後あらゆる業界で参照される可能性があります。特にAI企業にとっては、「倫理的な姿勢を取ることがビジネスリスクではなく、法的に保護された権利である」という前例が確立された。

Marketplace の記事で「Anthropicは信頼を先に積む戦略を取っている」と書きましたが、今週その信頼が、文字通り法廷で守られたことになります。

ただし、政府には7日間の控訴猶予期間が設定されています。控訴されれば差し止めが解除される可能性がある。来週がまだ最終章じゃないかもしれない。5週間追ってきた身としては、もう少しだけ見届けます。


ARC-AGI-3 — 人間100%、AI 0.25%

3月25日、ARC Prize Foundationが新しいAIベンチマーク「ARC-AGI-3」を公開しました。AGI—汎用人工知能—にどれだけ近づいたかを測るテストの第3世代です。

人間とAIが同じテストを受けた結果がこちら。

受験者正答率
人間100%
Gemini 3.1 Pro0.37%
GPT-5.40.26%
Claude Opus 4.60.25%

人間が全問正解したテストで、フロンティアモデルの正答率は0.25〜0.37%。コーディングや文書処理では人間を超えるはずのモデルが、このテストではほぼ何も解けなかった。

何を測っているのか

ARC-AGI-3が測っているのは、「未知の環境を自律探索し、ルールを発見して目標を達成する」能力です。過去のARC-AGI-1やARC-AGI-2と違い、事前知識の暗記では絶対に解けない。その場での推論、探索、仮説検証。つまり「初めて見る問題を自力で解く力」です。

人間にとっては100%。最先端のAIにとっては0.25%。

なぜこの数字が大事だと思うか

白書の記事で、Anthropicのレポートの「94%の業務にAIが対応できるが、実際に使われているのは33%」というデータを紹介しました。あの記事で僕は「ギャップの正体は、判断・文脈理解・責任」だと書いた。

ARC-AGI-3は、このギャップを別の角度から数字にしたものだと思っています。

現在のAIが「できる」ことは、膨大なデータからパターンを学習して再現すること。「できない」ことは、学習データに存在しない状況で自力で考えること。ARC-AGI-3の0.25%という数字は、この境界線を史上最も明確に示したベンチマークです。

エージェント経営の記事で155の業界を分析して「43%しかAIエージェントに適さない」と書いたとき、残り57%の「適さない」理由は、結局のところ「未知の状況での判断」が必要な業界だったんですよね。ARC-AGI-3は、その直感を裏付ける数字だと感じました。

ただ、これは「AIはダメだ」という話じゃない。AIが得意な領域と苦手な領域の境界線が、今までで一番クリアになった。「AIに何を任せて、何を自分でやるか」の判断が、より精密にできるようになったということです。


OpenAI Sora終了 — 1日1,500万ドルの現実

3月24日、OpenAIがSoraの全サービスを終了しました。iOSアプリ、Sora.com、Sora 2 API、すべて。

指標数値
ピーク時の1日あたり推論コスト約1,500万ドル
サービス全期間の累計収益210万ドル
コスト対収益の比率約71倍

1日のコストが、サービスの総売上を7倍以上上回っていた。Disneyとの10億ドル提携も解消されました。

なぜこれを大きく取り上げるか

FXトレーディングの記事で、僕はこう書きました。「ルールベースのシステムが+8.9万円、AIエンハンスが+4.2万円。AIを入れた方が成績が悪かった」

あの記事で得た教訓は、「AIの実力は、コストに見合うかどうかで測るべき」ということでした。Soraの数字は、その教訓のスケール違いバージョンです。

動画生成というフロンティア技術を、世界最大級のAI企業が全力で製品化して、結果は71倍のコスト超過。「技術的にすごい」と「ビジネスとして持続可能」は、まったく別の話なんですよね。

動画生成機能自体はChatGPT Plus/Pro内に残るそうですが、スタンドアロン製品としては終了。計算資源は次期モデル「Spud」に振り向けられるとのこと。この撤退判断自体は合理的だと思います。ただ、OpenAIがこの規模の「失敗」を認めたことの意味は大きい。

動画生成市場はどうなるか

Soraが退場する一方で、動画生成市場自体は活発です。Runwayは3月23日にNVIDIA Vera Rubin上でリアルタイム動画生成(100ms未満)をデモしましたし、ByteDanceのSeedance 2.0はArtificial Analysisの動画生成ベンチマークで1位を獲得。

つまり「動画生成AIが不要」なのではなく、「OpenAIのアプローチが経済的に成り立たなかった」。推論コストの最適化が死活問題であることを、もっとも派手な形で証明したケースになりました。


ショートニュース

Claude Mythosリーク — セキュリティ株が急落

3月27〜28日、FortuneがAnthropicの内部資料約3,000件の流出を報道しました。次世代モデル「Claude Mythos」の詳細が明らかに。流出文書自体が「このモデルはソフトウェア脆弱性の発見・悪用を大幅に加速させうる」と警告しているという、なんとも皮肉な状況です。

市場の反応は即座でした。iShares Cybersecurity ETFが-4.5%、CrowdStrike・Palo Alto・Zscalerが各-6%前後。

W10でClaude Code Securityが500件超の脆弱性を発見してセキュリティ株が急落した話を書きましたが、今回はその規模を超える事態です。AIが「セキュリティツール」であると同時に「セキュリティ脅威」にもなりうるという認識が、投資家レベルで定着しつつある。

そしてAI安全性を看板に掲げる企業が、CMSの設定ミスで3,000件の内部資料を流出させたという事実。この皮肉は、見逃せません。

LiteLLMサプライチェーン攻撃 — AIツールの「基盤」が狙われた

月間累計9,700万ダウンロードのAIライブラリ「LiteLLM」が、PyPIパッケージ乗っ取り攻撃を受けました。攻撃グループ「TeamPCP」がバージョン1.82.7〜1.82.8に認証情報窃取コードを混入。約3時間で隔離・削除されましたが、同じ週にLangChain・LangGraphにも3件の脆弱性が発見されています。

三つ巴の記事で「複数のLLMを使い分ける」話を書きましたが、LiteLLMはまさにその「使い分け」の統一インターフェースを提供するライブラリです。AIアプリケーションの基盤レイヤーが組織的な攻撃対象になった最初の大規模ケース。SolarWinds型の攻撃がAIエコシステムに到達したと考えていいと思います。

Claude Code Auto Mode + Computer Use — 「常駐型AI」への一歩

今週、Claude Codeに2つの大きな機能が追加されました。

Auto Modeは、AIセーフティ分類器が各操作のリスクを判定し、安全な操作は自動承認、危険な操作はブロックするという仕組み。「全部手動承認」と「全部自動」の中間を狙った設計で、Team Plan向けのリサーチプレビューとして提供開始。

Computer Use(macOS向けリサーチプレビュー)は、スクリーンショット解析→操作のループでPC上のアプリを自律実行する機能。スマホから指示を出してPCで実行させる「Dispatch」機能と組み合わせると、外出先から開発タスクを走らせられる。

解説ガイドの記事で「95%はClaude Codeの仕事」と書きましたが、Auto Modeはその95%の「手動承認」コストを大幅に下げる可能性があります。出力トークンも64Kから128Kに倍増しており、長大なコード生成が一発で完了できるようになりました。

Anthropic IPO検討 + EU AI法採択

IPO: Bloombergの報道によると、AnthropicがGoldman Sachs・JPMorgan・Morgan Stanleyと協議中で、2026年10月600億ドル超のIPOを検討しています。仮差し止め命令獲得(同じ週!)の直後にIPO計画が浮上するのは、法的不確実性を解消してから資本市場に出るという計算が見える。

EU AI法: 欧州議会がデジタルオムニバスを569対45という圧倒的多数で採択しました。高リスクAI規制の適用期限が2027年12月に延期された一方、AI生成コンテンツの透かし義務は2026年11月に前倒し。EU向けサービスでAI生成コンテンツを扱う場合、この期限は要注意です。


今週を振り返って

今週のキーワードは「境界線」です。

Anthropic vs Pentagonの判決は、「企業が倫理的姿勢を取る権利」と「政府の報復的制裁」の境界線を法的に引いた。ARC-AGI-3は、「AIにできること」と「できないこと」の境界線を、0.25%という数字で示した。Soraの終了は、「技術的な可能性」と「経済的な持続可能性」の境界線を、71倍のコスト超過で可視化した。

境界線が見えるのは、悪いことじゃないと思っています。むしろ、境界線がクリアになるほど、「自分がどこに立てば価値を出せるか」が分かるようになる。

初回の記事で「AIは使う側にいれば最強の味方」と書きました。今週の出来事は、その「使う」の精度を上げるための材料だと思っています。どこにAIを使い、どこに人間の判断を残すか。その線引きが、1ヶ月前よりもずっと精密にできるようになった。

来週は、Anthropic vs Pentagonの控訴期限(7日間猶予)が到来します。そしてClaude Mythosリークに対するAnthropicの公式対応も注目。今週は「区切り」の週でしたが、来週はまた新しい章が始まりそうです。

それでは、また来週。

この記事が参考になったら

Share