働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か


ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。
使い慣れたSaaSを開いた瞬間、「次はこの作業ですか?」とAIが先回りする。気味が悪いほど自分の動きを読んでいる——そう感じたことが、最近あったかもしれない。
Metaが米国の従業員を対象に、キーストロークとマウスの動きをAIエージェントの訓練データとして収集し始める。個々人の熟練した作業のリズムが、本人を不要にするAIの素材に変わる構造を見ていく。
この記事の要約
熟練は、あなたを守る資本ではなく、あなたを置き換える資本に変わった
「人事評価には使わない」が約束しているのは、今日だけだ
Metaは今回の導入にあたり、キーストロークのデータは人事評価には使わない、機密性の高いコンテンツは保護する、対象は米国の従業員と業務アプリに限る——と明言している。この言い回しを真に受けるかどうかが、今回のニュースの読み方を分けると思う。
この約束は、今日の使い道の話しかしていない。訓練データとして一旦モデルに取り込まれた作業パターンは、そのモデルが将来どう使われるかまでを縛ってはいない。
あるAIエージェントが「山田さんならここでEnterを押す」「田中さんはこの順序でタブを切り替える」というパターンを学習したあと、そのモデルが5年後に別の用途に転用されたとき、元データの使用目的の約束はもう形骸化している。これはMetaが悪意を持っている、という話ではなく、訓練データと目的拘束の関係が、そもそもモデルの中で切れてしまうという話だ。
先週のトピックスで取り上げたGrammarlyが数百人のライターの名前を無断で「Expert Review」に使っていた件も、構造としては同じだった。最初の取得時の約束が、時間を経てなし崩しになる。Grammarlyは「悪意があった」のではなく、自社が持つデータの使いみちが事後的に拡張されていっただけだ。キーストロークのデータに同じ構造が適用されない理由を自分は見つけられていない。
雇用契約のなかで、「プロセス」は誰のものなのか
成果物が雇用主のものであることは、ほとんどの国で争いがない。山田さんが書いた社内資料の著作権は会社に帰属する。これは明快だ。
問題は、その資料を作る過程に出てきた動作ログ——どんな順序でドキュメントを開き、どのタイミングで立ち止まり、どのキーストロークで修正したか——が、誰のものなのかがはっきりしていないことにある。
ここは自分が専門外の領域だが、少なくとも日本の労働法・個人情報保護法の現行の枠組みで、「業務プロセスの行動ログをAI訓練に使う」ことを正面から扱った規定は見当たらない。法的な判断はできないが、契約書にも就業規則にも、この粒度での合意はまだ書かれていないはずだ、という直感はある。
Metaの例で気になるのは、米国限定で始まっていることだ。これは推測の域を出ないが、欧州ならGDPRやAI Actとの摩擦が大きく、日本でも個人情報保護法の「利用目的の特定」条項が障害になりうる——そういう地域を後回しにしたように見える。つまり、Metaもどこで揉めるかを計算している。「揉めない場所」から始めて、既成事実を作ってから他地域に広げる。これはプラットフォームビジネスの古典的な戦法である。
データを集める側と、データになる側——同じ会社の中の見えない分岐
ここが今回の核心だと考えている。
この時代、これからの時代、AIの性能はデータで決まる。どれだけ良質なデータを、どこから、どう集めて、どう学習させて、何に活かすか。このサイクルを回せる側がビジネスを作り、回せない側はそのサイクルに「素材」として組み込まれていく。
Metaが今回やろうとしているのは、社内で完結する新しいデータ源の開拓。外部の公開データやライセンス契約に依存せず、自社の従業員という、最も信頼できて最も合法的に触れるデータ源を開いた、ということになる。
この構造は、同じ会社の中に見えない分岐を生むと思う。データを集める側——AI戦略を立てる経営層、基盤を作るエンジニア、事業設計をする企画——は、「どこから、どんな粒度で、何の目的で集めるか」を問いとして持てる。一方でデータになる側——キーストロークを提供する側の従業員——は、その問いを持つ前に、すでに素材として稼働している。
これまで熟練した従業員は「代替が効きにくい」ことで雇用を守ってきた。経験10年の人材が持つ判断のパターンは、マニュアル化できない暗黙知だったから、切ることは組織のリスクだった。今回の構造が怖いのは、その暗黙知——順序、リズム、間合い、判断——が、キーストローク単位で可視化される対象になったこと。熟練は、もはや本人の頭の中だけにあるのではなく、雇用主が所有する訓練データの中にコピーされ、モデルに溶けていくのだ。
先月取り上げたAIエージェントによる新卒雇用の縮小の記事では、需要側——企業がAIエージェントで人を減らす話——を見た。今回の話は供給側だ。そのAIエージェントを賢くする訓練データは、どこから来ているのか。答えは、今まさに働いている従業員のPCから来ている。自分の熟練が、後輩の席を消すAIの材料になる。この循環が、あまり静かに進んでいる。
人間とラクダの役割は見ればわかる。人間とAIの役割はまだ見えない
家畜化されたラクダと人間の役割分担は、誰が見てもはっきりしている。運ぶ側と、運ばれる荷物を決める側。体力勝負の領域と、判断の領域。境界線が見えるから、人間はラクダに役割を奪われることを心配しない。
人間とAIの間には、まだその解像度がない。何をAIにやらせ、何を人間が握り続けるのか。この線引きを、自分の言葉で説明できる人はごく一部だと思う。今回のMetaの件は、その解像度を上げないまま日々を過ごしていると何が起きるかを、わかりやすく見せてくれていると思う。キーストロークのリズムも、クリックの間合いも、「これは人間の仕事の本質ではない」と自分で言い切れなかったから、気づかないうちに訓練データの候補になっていた。
これまでの視点——「AIは自分の仕事を楽にする便利な道具」「AIと共存していく」——だけでは、この局面に対して足りない気がしている。データを作る側に立つのか、データになる側に回るのか。自分の仕事のうち、どの部分は手放してよく、どの部分は絶対に手放してはいけないのか。この解像度を自分の中で持たないまま働き続けることは、積み上げてきたものを、自分が知らない速度で失っていくことと同じかもしれない。そんな入口に足を踏み入れた感覚がある。
自分のCursorもClaude Codeも、すでに同じ構造のなかにある
ここまでMetaの話として書いてきたが、日本のビジネスパーソンがこれを他人事として読めない理由はひとつある。あなたが今日使っているAI搭載SaaSの多くが、すでに同じ構造の中にある。
CursorやGitHub Copilotのテレメトリ、Notion AI、Microsoft 365 Copilot、Grammarly——これらの利用規約には、たいてい「サービス改善のためにユーザーの利用データを使う」旨の条項が入っている。その「利用データ」の粒度と、「サービス改善」の範囲は、正直なところ自分も完全には把握できていない。Metaが明示的に「AIエージェントの訓練データにする」と言ったのは、これまで曖昧にしてきたものを言語化しただけとも読める。
ここから読者にぜひやってもらいたい作業がひとつある。「自分が毎日使っているAI機能搭載ツール」を3つ書き出して、それぞれのプライバシーポリシーの中の「データ利用」の項を一度読み直してみてほしい。読み直したときに、違和感があるかどうか。違和感がないなら、それはあなたがその条件に同意しているということだ。違和感があるなら、それは新しく結び直すべき契約がそこにある、ということだと思う。
自分の熟練が誰の資本になっているのか。この問いに、自分の答えを持たずにAIを使い続けるのは、そろそろ不用意であり、自分自身の将来を危ういものにすることになってきたのかもしれない。

おすすめの映画・書籍
この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。
テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

報道記事・ソース
関連記事
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。


















