AIの「作り手」が立ち止まり始めた——開発者自身が確信を持てないまま加速する技術


ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。
2月5日、OpenAIとAnthropicは同日に新モデルを発表した。GPT-5.3 CodexとOpus 4.6——いずれも自らの開発プロセスに関与した初のモデルだ。
その1週間後、両社から研究者が相次いで離脱し、安全チームが解散され、開発者自身が「存在的脅威を感じる」と公に語り始めた。
AI開発の最前線で今起きているのは、技術の加速とそれを制御する人間の確信の喪失が同時に進行するという、前例のない事態だ。
この記事の要約
TechTechの視点
注目すべきは「何が語られたか」ではない。「誰が語っているか」だ。
AIの安全性を研究する責任者が辞任し、AIモデルの安全性を社会に説明するチームが解散し、AIスタートアップの共同創業者が半数いなくなった。警告を発しているのは外部の評論家ではなく、これらの技術を毎日触り、その能力の伸びを最も近くで見てきた人間たちだ。
同時にAnthropicは、自社モデルが化学兵器開発を「小規模に」支援した事実を53ページのレポートで公開した。これは誠実な透明性か、それとも「リスクを認めながら開発を続ける」ための免責布石か——その判断がつかないまま、モデルは次の世代へと進んでいる。
先日配信したダリオ・アモデイのエッセイ分析で指摘した「リスクを最もよく知る人間がAI企業を経営しているという構造的矛盾」が、今週、組織レベルで可視化された。

おすすめの映画・書籍
この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。
テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

オッペンハイマー

監視資本主義:デジタル社会がもたらす光と影
報道記事・ソース
Today is my last day at Anthropic. I resigned.
Here is the letter I shared with my colleagues, explaining my decision. pic.twitter.com/Qe4QyAFmxL
— mrinank (@MrinankSharma) February 9, 2026
Today, I finally feel the existential threat that AI is posing. When AI becomes overly good and disrupts everything, what will be left for humans to do? And it’s when, not if.
— Hieu Pham (@hyhieu226) February 11, 2026
I resigned from xAI today.
This company – and the family we became – will stay with me forever. I will deeply miss the people, the warrooms, and all those battles we have fought together.
It’s time for my next chapter. It is an era with full possibilities: a small team armed…
— Yuhuai (Tony) Wu (@Yuhu_ai_) February 10, 2026
— Matt Shumer (@mattshumer_) February 10, 2026
Anthropic公式:妨害行為リスクレポート:Claude Opus 4.6
関連記事
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。

















