Figure AI、10万行のC++コードを捨て去った「Helix 02」で全身自律制御を実現

ヒューマノイドロボットの制御は長年、「歩行」と「操作」を別々のシステムで動かす設計に依存してきた。歩いて、止まって、バランスを取って、それから手を伸ばす。この断続的な動きが、ロボットと人間の決定的な差だった。Tesla Optimus、Boston Dynamics Atlas、そして中国のUnitreeやFourierがこの壁に挑む中、評価額390億ドルのFigure AIが異なるアプローチで先手を打った。10万行を超える手書きのC++コードを削除し、人間の動作データから学習した単一のニューラルネットワークに置き換える。
Executive Brief
FACT
IMPACT
INSIGHT
Contents ——公式発表・一次情報
Introducing Helix 02
It’s our most powerful model to date – it’s using the whole body to do dishes end-to-end and it’s fully autonomous pic.twitter.com/jtUVCRIsLh
— Figure (@Figure_robot) January 27, 2026
Summary ——何が起きている?
- Helix 02は単一のニューラルネットワークで視覚・触覚・固有受容感覚を統合し、全身の関節を直接制御する「Pixels-to-Whole-Body」アーキテクチャを採用
- 3層階層構造:System 2(意味理解・言語処理)、System 1(200Hzで全身関節目標を生成)、System 0(1kHzでバランス・接触・協調を制御)
- Figure 03ハードウェアの掌カメラと指先触覚センサー(3グラムの感度)により、頭部カメラから見えない物体も操作可能に
- デモでは食器洗い機の開閉、食器の運搬と収納、手が塞がっている際に腰で引き出しを閉め足でドアを持ち上げる全身協調動作を実証
- Figure AIは2025年9月に390億ドル評価で10億ドル超のシリーズC調達、BotQで年間10万台生産を目指す
Perspective ——TECHTECH.の視点
109,504行という数字が、この発表の核心を物語っている。Figure AIは、従来のロボット工学が積み上げてきた制御コードを「削除した」と明言した。これは単なる技術的改善ではない。パラダイムの転換だ。従来のロボット制御は、物理学者とエンジニアが何十年もかけて構築した方程式とアルゴリズムの集積だった。歩行時のバランス、外乱への対応、接触力の計算——すべてが数式として記述されていた。だがSystem 0は、人間の動作データ1,000時間を「見て」、バランスの取り方を「学んだ」。方程式を書くのではなく、直感をインストールした。この転換が意味するのは、ロボット開発の競争軸が「優れた制御理論を持つ者」から「大量の高品質な動作データを持つ者」へ移行したということだ。Figure AIは4分間の連続タスクでこのアプローチの正当性を証明した。ミリメートル単位の指先の動きと、数メートル規模の移動を、同じニューラルネットワークが処理している。TeslaやBoston Dynamicsがこの挑戦にどう応答するか。答えは、彼らが持つデータの量と質にかかっている。

















