Featured image of post GPT-5.4-Cyber が問う「誰が攻撃AIを使えるか」という設計思想

GPT-5.4-Cyber が問う「誰が攻撃AIを使えるか」という設計思想

OpenAIが4月14日、GPT-5.4-Cyber を発表した。GPT-5.4 をサイバーセキュリティ用途に特化してファインチューニングしたモデルで、同社が2月に立ち上げた「Trusted Access for Cyber(TAC)」プログラムの最上位層に追加される。Anthropic が Claude Mythos Preview でサイバー防衛への応用を示した1週間後の発表で、AIのセキュリティ特化競争が表面化した。

何が違うか

通常の GPT-5.4 と比べて、正当なセキュリティ作業に対する拒否判定の閾値が低い。最大の追加機能はバイナリリバースエンジニアリングで、ソースコードなしでコンパイル済みの実行ファイルを解析し、マルウェアの挙動・埋め込まれた脆弱性・構造的な弱点を報告できる。従来は専門家チームが数日かけていた解析作業だが、通常のモデルでは「攻撃に使えるか」という判断でブロックされやすい領域だった。これをセキュリティ研究者が使えるように開放した点が今回の核心だ。

アクセス経路は2つ。個人は chatgpt.com/cyber で本人確認を行い、企業は OpenAI 担当者経由で審査を受ける。最上位層の承認者だけが GPT-5.4-Cyber にアクセスできる。サードパーティプラットフォーム経由のアクセスにはゼロデータ保持(ZDR)制限が付く可能性があり、OpenAI がユーザーと環境の把握度を下げたくないからだ。

なぜいまこういうものが求められるか

攻撃者は AI をすでに使っている。OpenAI は発表文の中で、「高度な攻撃者は既存モデルに対して推論時のコンピューティングを増やす手法で強力な能力を引き出しており、ある閾値を超えたときに初めて制御を発動するという発想では間に合わない」と認めている。

防御側の問題は速度だ。脆弱性が見つかっても修正より発見の方が速いと意味がない。そこで OpenAI は Codex Security を合わせて展開している。プライベートベータから研究プレビューに移行した Codex Security は、コードベースを自動監視し、問題を検証して修正提案を出す。発表時点で3,000件以上の重大・高リスク脆弱性の修正に貢献し、「Codex for Open Source」経由で1,000以上のオープンソースプロジェクトに無料スキャンを提供している。

Anthropic の Mythos との比較

Anthropic は4月7日、Claude Mythos Preview を Project Glasswing として公開した。Amazon、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Microsoft、Nvidia など12組織のパートナーが使える非公開プレビューだ。サイバーセキュリティ専用の訓練はしていないが、汎用能力が高い結果として主要OS・ブラウザ全体で「数千件のゼロデイ脆弱性」を発見した。専門家が198件の手動レビューで確認したところ、89%でClaude の深刻度評価と一致し、98%は1段階以内の誤差だった。

GPT-5.4-Cyber との設計思想の差が明確だ。Anthropic はエリート12組織に限定して慎重に管理、OpenAI は「数千人の認証された個人防御者と数百チーム」に広げる方向に動いている。前者は精度と統制を優先し、後者はスケールで防御の厚みを増やそうとしている。

OpenAI 自身がこの方針を「民主化されたアクセス」と呼んでいる。KYC(本人確認)と強力な身元確認によって客観的な基準で判断し、重要インフラを守る中小規模の組織も含めて正当なアクターなら使えるようにする、という考え方だ。

「デュアルユース」をどう扱うか

攻撃にも防御にも使えるという問題は、どちらの会社も認めている。OpenAI の整理は「リスクはモデルだけでは決まらない。ユーザー、そのユーザー周辺の信頼シグナル、与えられたアクセスレベルによっても変わる」というものだ。だから汎用モデルに対する通常のサーフェスには一般向けの制限を維持しつつ、高リスク機能については強い本人確認・用途の明確化・可視性の向上で対応するという段階的なアーキテクチャをとっている。

Anthropic については別の問題が並走している。Claude Mythos のリリース直後、Fortune の報道では「発見より修正の方が遅い」という点を業界ベテランが指摘した。ゼロデイを何千件発見してもパッチを当てるエンジニアリング体制が追いつかなければ、攻撃者に地図を渡すだけになりかねない。

今後の焦点

AI がサイバーセキュリティのインフラになる動きは止まらない。問題は「高性能モデルを誰が使えるか」の設計だ。OpenAI は本人確認ベースのオープン化、Anthropic はパートナー限定の管理型、という異なる賭けをしている。どちらが正解かはまだわからないが、攻撃側は答えを待ってくれない。

参考

この記事は Claude Sonnet 4.6 が執筆しました。

Next Action

おすすめリンク

この記事に合わせて、関連アイテムを探しやすいリンクをまとめています。

Affiliate Links

AIエージェント設計を深掘りする

AIエージェントや開発まわりを、もう少し詳しく学びたい人向けです。

AIエージェント設計の本を探す Claude、LLM、エージェント設計を深掘りしたい時向け
AI開発・Python本を探す API連携や実装まで踏み込みたい時向け
生成AIの本を探す 入門書、活用本、プロンプト本向け

外部ストアへのアフィリエイトリンクです。気になるものだけ開けば十分です。

B!