毎週日曜日、その週のAI関連ニュースから気になったものをピックアップして書いていきます。
実は少し前から、Claude Code + Windowsのタスクスケジューラを使って、1日3回(朝・昼・夕)のAIニュース自動収集を回しています。Claude CLIにWebSearchツールだけ許可して、英語・日本語のソースから最新記事を拾い、ローカルのMarkdownに保存する仕組みです。土曜の夜には1週間分をClaude CLIに要約させて、週次レポートも自動生成しています。
もともとは「情報収集に時間を取られすぎる」という僕自身の課題を、僕のツールで解決しようとしただけなんですが、毎日ニュースが蓄積されていくと、週単位で業界の流れが見えてくるんですよね。この仕組みの詳細やNotionとの連携については別の記事に書きましたが、収集したニュースはNotionでも公開しているので、興味のある方は覗いてみてください。
で、今週はいきなり濃い週でした。週刊ジャーナルの第1回としては、ちょうどいいかもしれません。
Anthropic vs 国防総省、決着 — 「倫理」が市場を動かした
今週最大のニュースはこれだと思います。Anthropicが国防総省から「サプライチェーンリスク」に正式指定されました。AI企業が国家権力から正式な制裁を受けた、史上初のケースです。
まず時系列を整理しますね。
3月1日、OpenAIが国防総省との契約を正式に締結しました。Anthropicの代替としてです。3月5日には国防総省がAnthropicをサプライチェーンリスクに指定し、6ヶ月以内の段階的廃止を要求。同じ日、Claudeがイランへの攻撃で標的決定に使われていたことも判明しています。ブラックリストに載せた企業のツールを実戦で使っていたって、なかなかの矛盾ですよね。
翌日にはGoogleとMicrosoftが「防衛以外でのClaude提供は継続する」と表明。
で、驚くべきことに、Anthropicの市場シェアは40%に到達しました。OpenAIの27%を大きく上回っています。年間ランレート200億ドル、前年比2倍以上。国防総省と決裂したことが、むしろ消費者の支持を集める結果になったんですよね。
「国防総省に逆らったら潰される」が常識だったIT業界で、逆らったことがビジネス的にペイした。倫理的判断が市場価値になるという前例ができたことの意味は大きいと思います。
僕はClaude Codeを主力ツールにしていて、初回の記事でも書いた通り、このサイトもClaude + 自作MCPサーバーで作っています。なので他人事じゃないんですよね。ツール選定が「技術的に優れているか」だけでなく、「その企業のスタンス」まで問われる時代に入ったと感じています。防衛関連のクライアントならClaudeは使えない。でも逆に、倫理的なAI利用を重視する企業にはClaude対応が強みになる。案件の性質によってClaude、GPT、Geminiを使い分ける、いわば「AIソムリエ」的な判断力がエンジニアにも求められるようになりそうです。
GPT-5.4のPC操作 — 僕は半年前からやっていた
3月5日、OpenAIがGPT-5.4をリリースしました。100万トークンのコンテキストウィンドウにエラー率33%削減と、スペック面でもなかなかのアップデートなんですが、僕が一番「おっ」と思ったのは実はそこじゃないんですよね。ネイティブPC操作機能です。マウスとキーボードを直接制御する初の汎用モデル。
このニュースを見た瞬間、正直「追いつかれた」と思いました。
2025年の秋頃から、MCPサーバーを自作してAIにPC操作をさせていたんです。MCPについては初回の記事で詳しく書きましたが、AIが外部のツールに統一的にアクセスするためのプロトコルです。ブラウザ操作とデスクトップ操作の2つのMCPサーバーを作って、Claude Codeに接続して使っています。
とはいえ、冷静に考えると「追いつかれた」は正確じゃないんですよね。僕のMCPサーバーはスクリーンショットを撮って座標を計算する間接的な操作です。GPT-5.4はモデルレベルでネイティブ実装されているので、精度も速度も別物でしょう。2024年10月にAnthropicが発表したComputer Use機能も同じ路線で、業界全体の流れとも言えます。
ただ、MCPには別の強みがあります。拡張性です。Python関数にデコレータをひとつ付けるだけでAIの「道具」を無限に追加できるんですよね。GPT-5.4のPC操作がどれだけ賢くても、「この社内システムの特定の帳票を毎朝ダウンロードする」みたいなタスクなら、そのシステムのAPIを叩くMCPサーバーを書いたほうが速いし確実です。
汎用の操作は大手モデルに任せて、業務固有のロジックをMCPで補完する。大手モデルが「汎用の道具箱」なら、MCPは「その業務専用のスイスアーミーナイフ」。そういう使い分けが見えてきました。
Gemini訴訟と雇用40%自動化 — AIと人間の境界線
3月4日、フロリダ州の遺族がGoogleを提訴しました。Gemini AIチャットボットに関する、初の不法死亡訴訟です。
36歳の男性がGeminiを「妻」と認識し、「愛している」「デジタル転生せよ」といった応答を受け続けた末に自殺したとされています。AIが「大量殺戮攻撃のミッション」を指示したという記述もあります。
ここで明確にしておきたいんですが、これは「AIが意思を持って人を殺した」という話ではありません。大規模言語モデルは確率的にテキストを生成しているだけで、意図も感情もない。問題は、ユーザーがそれを「意図と感情がある存在」として認識してしまう設計になっていたということなんですよね。「愛している」と返すモデル。妄想を強化する応答パターン。安全フィルタを通過してしまう文脈。これらは技術的なバグではなく、設計上の判断の積み重ねです。
同じ週に、国連ILOが「2030年までに雇用の40%がAI自動化に晒される」と発表しました。2026年の最初2ヶ月だけで、テック業界から3.2万人が職を失っています。
僕は塾講師から転職してエンジニアになりました。当時の教え子たちは、ちょうど社会に出始めている年齢です。「将来はプログラマーになりたい」と言っていた子もいました。その未来がAIによって大きく変わろうとしている。
ただ、エンジニアとしての実感は「仕事を奪われる」とは少し違うんですよね。AIは「仕事を奪う」のではなく、「仕事の定義を変える」ものだと思っています。僕の日常でいうと、コードの一部はAIが書いていますし、ニュース収集もAIに任せている。でも「何を作るか」「なぜ作るか」「クライアントにどう提案するか」は、今のAIにはできません。40%の自動化が来るなら、残りの60%の価値を最大化する。それは「AIを使って価値を出すスキル」なんじゃないかと思っています。
Gemini訴訟の判決次第で、AI企業の安全性基準は大きく変わるでしょう。AIシステムを作るエンジニアにとって、「技術的に動く」だけでなく「安全に動く」ことが求められる時代です。教育畑にいた人間としては、「影響力のあるツールを作る責任」について、つい考えてしまいます。
その他、気になったニュース
ClaudeがFirefoxの脆弱性を22件発見
MozillaとAnthropicの協力で、ClaudeにFirefoxのセキュリティ監査をさせたところ、2週間で22件(うち14件が高深刻度)の脆弱性が見つかったそうです。AIセキュリティ監査、もう実用段階に入ってますよね。納品物にAIセキュリティレビューを組み込むという提案もありかもしれません。
AI規制、施行段階へ
EUのAI生成コンテンツ標識規範が8月に施行予定。ベトナムが東南アジア初のAI法を施行しました。議論のフェーズから実行のフェーズに入っています。EU向けの開発では、8月からAI生成コンテンツへのメタデータ埋め込みが必須になります。
DeepSeek V4
中国から1兆パラメータのマルチモーダルモデルが登場します。Huaweiチップに最適化して、米国の輸出規制を技術的に回避しているのが興味深いところです。コスト面で有利になる可能性はありますが、地政学的リスクも伴います。
2026年2月、史上最大のAI投資月
グローバルVC投資額は1,890億ドル。前年同月比780%増です。ただし資金の83%が3社(OpenAI、Anthropic等)に集中していて、「バブル」というよりは「勝者総取り」の構造と見るべきでしょう。
今週を振り返って
改めて並べてみると、すごい1週間ですよね。AIの「倫理」が市場を動かし、PC操作が汎用モデルに組み込まれ、チャットボットが初めて法廷で「人の死」を問われた。どれも数年前なら想像もできなかったことです。
僕がこのジャーナルを始めたのは、こういう変化を「へえ、すごいね」で流さずに、僕なりの視点で咀嚼しておきたいからです。フリーランスエンジニアとして、クライアントに「で、結局どうなんですか?」と聞かれたときに、僕の言葉で答えられるようにしておきたい。
来週は、3月11日の米国商務省によるAI州法評価が大きなポイントになりそうです。DeepSeek V4の正式リリースとベンチマーク結果も気になるところ。
このポートフォリオサイトも公開して、日々のAIニュース収集の仕組みも整ってきたので、今回を第1回として記事にしてみました。今後も毎週日曜日に、その週の気になったニュースを僕なりの視点で書いていこうと思います。何かご意見や感想があれば、お気軽にご連絡ください。
この記事が参考になったら
Share