AIが自らを改良し始めた——サム・アルトマンが「不安だ」と認めた加速の正体

OpenAI CEO サム・アルトマンがインドで開催されたExpress Addaイベントで「世界は準備ができていない」と警告した。AGIは「かなり近い」、超知能も「それほど遠くない」。
だが注目すべきは予測の時期ではない。OpenAIの最新コーディングモデルCodex 5.3がAI自身によって共同開発されたという事実——AIが自らの研究を加速するフィードバックループが、もはや理論ではなく稼働中の現実になりつつある。
Executive Brief
Summary ——何が起きている?
- アルトマンはExpress Addaで「AGIはかなり近い、超知能もそれほど遠くない」と発言した。
- OpenAIのCodex 5.3はAI自身によって部分的に共同開発されたと明かした。
- 2028年末までに世界の知的能力の過半がデータセンター内に存在しうると述べた。
- 「想定より速い離陸」でありそれは「ストレスで不安を感じる」と表現した。
Perspective ——TECHTECH.の視点
サム・アルトマンの発言を「また大げさなことを言っている」と片づけるのは簡単だし、「AGIが来る」と騒ぐのも同じくらい安易だ。だが今回の発言の中で、見落とされている一文がある。
Codex 5.3がAI自身によって部分的に共同開発されたという事実だ。
これはプロダクトのアップデートの話ではない。AIが自らの開発工程に組み込まれたという意味だ。フィードバックループの存在が明確に公表された商用事例の一つと言ってもいい。アルトマンが「想定より速い離陸になる」と言ったのは、このループの存在を前提にした発言だ。
そして構造的に興味深いのは、アルトマン自身がこの加速を「ストレスで不安を感じる(stressful and anxiety-inducing)」と形容した点だ。不安を感じている人間が、その不安の原因であるアクセルを踏み続けている。OpenAIの社内研究がAIによって加速されている以上、ブレーキの位置はCEOの意思決定にある。だがそのCEOが「不安だ」と言いながら止めない構造は、個人の意思ではなく、競争環境が止まることを許さない力学を映している。
先日、AI開発者自身が立ち止まり始めているという構造を配信した。技術は加速しているのに、作っている側に自信がない。今回のアルトマンの「不安」発言は、その構造のもう一つの断面だ。
アルトマンは同じ講演で、IAEAのような国際機関によるAI監視の必要性に言及し、「一社や一国にこの技術が集中すれば破滅につながる」と述べた。監視の必要性を訴える人間と、監視される対象を作っている人間が同一人物であるという事実。この矛盾を「偽善だ」と断じるのも違う。制御の仕組みがない状態で走り続けるしかないという状況そのものが、AI開発の現在地を正確に表している。

Drill Down ——もっと掘り下げる
Context Timeline ——報道記事
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。













