AIで、一人の限界を超えるメディアプラットフォーム
AIに体調を相談したデータは誰のものか——ビッグテックが健康データに殺到
2026.03.13

AIに体調を相談したデータは誰のものか——ビッグテックが健康データに殺到

Microsoft
Microsoft
AIに体調を相談したデータは誰のものか——ビッグテックが健康データに殺到

2026年1月、OpenAIがChatGPT Healthを発表した。4日後にAnthropicがClaude for Healthcareで追った。そして3月12日、MicrosoftがCopilot Healthで参入した。2か月で3社が健康データ領域に並んだ。偶然ではない。ウェアラブルに蓄積された膨大なデータの「解釈者」の席を、3社が同時に奪いにきた構図だ。

Executive Brief

30 SEC READ
FACT
MicrosoftがCopilot Healthを発表し、50以上のウェアラブル端末と5万以上の米国医療機関の記録をAI上で統合するサービスを開始した。
IMPACT
OpenAI(1月)、Anthropic(1月)に続く3社目の参入により、健康データがAIプラットフォームの次の主戦場として確定した。
INSIGHT
3社が同時期に健康データ領域へ参入した構造は、検索・買い物など既存データ領域での収益化が壁に当たる中、「まだ誰のプラットフォームにも属していないデータ」が競争の焦点に移行していることを示唆している。

Summary ——何が起きている?

  • OpenAI(1月)、Anthropic(1月)に続き、Microsoftが3社目として健康AI領域に参入した。
  • Copilot Healthは50以上のウェアラブル端末と5万超の米国医療機関の記録を統合する。
  • 3社とも「訓練に使わない」と表明するが、AIへの入力は医療機関と同等の法的保護を受けない。
  • Microsoftは24カ国以上約230人の医師と連携するが、診断・治療・予防を目的としないと明記している。

Perspective ——TECHTECH.の視点

● 法律が守る健康データと、企業ポリシーが守る健康データは別物だ

なぜ3社は同時に「健康」に向かったのか

AI企業にとって、検索データや買い物データはすでに手札に入っている。だがそれらの収益化は壁に当たっている。以前配信した記事で取り上げたように、ユーザーはAIに商品を調べさせるが、AIで買い物はしない。情報と取引の間に「信頼の壁」がある。

健康データは違う構造を持つ。Apple HealthやFitbitに蓄積されたデータは、今のところ「見るだけ」で終わっている。心拍数のグラフを眺めても、その意味を解釈できる人は少ない。そこにAIが入り込む隙間がある。データはすでにユーザーの手元にあるが、解釈者がいない。3社が同時に動いたのは偶然ではなく、この構造的な空白に全員が気づいたからだ。

医師に話すか、AIに話すか——保護の構造が根本的に違う

プライバシーの議論は「データは暗号化されるか」「訓練に使われるか」に集中している。だが、もっと根本的な構造が見落とされている。

日本で医師に健康情報を話した場合、その情報は刑法第134条や個人情報保護法の「要配慮個人情報」として厳格に保護される。病歴や診療記録の取り扱いには厚生労働省のガイダンスが適用され、基準は細かく規定されている。

一方、同じ内容をChatGPTに入力した場合はどうか。AI企業も個人情報保護法の対象ではある。だが医療機関向けの厳格な規制は及ばない。ユーザーが自発的に入力した時点で、保護の根拠は医療制度の法規制から企業のプライバシーポリシーへ実質的に切り替わる。米国でも構造は同じだ。医師に話せばHIPAA(医療データ保護法)が適用されるが、AIへの入力は対象外になる。

法律とポリシーの差は本質的だ。法律は破れば罰がある。企業ポリシーは、企業が変更できる。3社とも「データは訓練に使わない」と今日は約束している。だが、それは今日の約束だ。さらに日本では、個人情報保護法の改正でAI開発目的の統計利用に本人の同意を不要とする方向で検討が進んでいる。法律も、一部の領域で「保護」と「活用」のバランスを見直し始めている。

「医療ではない」という免責が作るグレーゾーン

3社に共通するパターンがもう一つある。Microsoftは「Copilot Healthは疾病の診断、治療、予防を目的としない」と明記する。OpenAIもAnthropicも同様の免責を置いている。

だが実態を見ると、Copilot Healthは検査結果を解釈し、病院を検索し、診察前の質問を準備する。ユーザーの立場からすれば、それは医療的な助言に限りなく近い。日本の薬機法では「プログラム医療機器」に該当すれば規制の対象になるが、「健康管理の参考情報」にとどまるツールは対象外だ。米国でもFDAがウェアラブル端末のAI支援機能への審査を緩和しており、日米ともに「医療ではないが医療的な機能を持つツール」が規制の隙間に入り込む余地が生まれている。

「便利だが医療ではない」。この文言が、国を問わず、企業を責任から遠ざけ、ユーザーを保護から遠ざける。

便利さの対価は「不可逆性」にある

この問題は「便利か危険か」の二項対立では捉えきれない。健康データには、他のデータにない特性がある。不可逆性だ。

クレジットカード番号は漏洩しても変更できる。パスワードはリセットできる。だが、持病の履歴、精神的な相談内容、遺伝情報は変更できない。一度プラットフォームに預けたデータは、企業のプライバシーポリシーが改定されたとき、法的にどこまで保護されるのか。その問いに、現在の規制は答えを持っていない。

3社が競争しているのは、「誰が健康データの解釈者になるか」だ。ユーザーの便益は、その競争の副産物として生まれている。構造を見誤ると、便利さの中で手放したものの大きさに、後から気づくことになる。

ウェアラブルの健康データをAIに分析させるとき、そのデータが法律ではなく企業の方針で保護されていることを意識しているか。
AIの健康アドバイスと医師の助言を、同じ信頼度で受け取っているか。両者の根拠の違いをどこで判断しているか。
健康データは検索履歴や購買データと何が違うか。「漏洩しても変更できないデータ」を預ける基準は何か。
3社が「データは訓練に使わない」と約束している。その約束が変更された場合の対処を、事前に考えているか。
John
Thought by John
このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

Drill Down ——もっと掘り下げる

ガタカ
映画

ガタカ

1998年
106分
アンドリュー・ニコル
DNA操作による“適正者”が優遇され、自然出産の“不適正者”が差別される近未来を描いたSFサスペンス映画
推薦理由
遺伝情報で人生が決まる近未来を描いたSF。健康データが「個人の評価基準」に転用される可能性を考えさせる。
監視資本主義: 人類の未来を賭けた闘い
書籍

監視資本主義: 人類の未来を賭けた闘い

2019年
東洋経済新報社
ショシャナ・ズボフ
巨大IT企業が私たちのあらゆる行動や体験をデータとして密かに収集・利用し、個人の自由や民主主義を脅かしながら巨万の富を築く「新たな経済システム」の実態を暴いた警鐘の書
推薦理由
テック企業がユーザーの行動データを「原材料」として抽出する構造を描いた。健康データはその延長線上にある次のフロンティアだ。

Context Timeline ——報道記事

2026.03.13 04:17
theregister.com
Microsoft Copilot now boarding your health information
2026.03.12 22:06
fortune.com
Microsoft launches Copilot Health, a dedicated space for personal health data and AI-driven insights
2026.03.12 00:00
healthcaredive.com
Microsoft launches dedicated health AI chatbot
2026.03.06 23:49
medcitynews.com
Privacy Expectations in Consumer AI Tools: How Patient Use of ChatGPT Health and Claude Differs From HIPAA-Regulated Care
2026.01.08 06:08
techcrunch.com
OpenAI unveils ChatGPT Health, says 230 million users ask about health each week
John
John

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

LATEST UPDATES

あなたの文章はまだ「あなたの文章」か——130超の研究が示す「思考の均質化」の構造
03.13

あなたの文章はまだ「あなたの文章」か——130超の研究が示す「思考の均質化」の構造

App Store1位から圏外へ——Soraの急落が示す「AI単独アプリの終焉」
03.13

App Store1位から圏外へ——Soraの急落が示す「AI単独アプリの終焉」

Sora
Sora
chatgpt
ChatGPT
AIは「人工知能」か「アフリカ人の知能」か——あなたのChatGPTを作った人の時給
03.13

AIは「人工知能」か「アフリカ人の知能」か——あなたのChatGPTを作った人の時給

テストに通るのに使えない——AIが書いたコードの半分は現場で却下される
03.12

テストに通るのに使えない——AIが書いたコードの半分は現場で却下される

最先端AIプラットフォームが2時間陥落 ――攻撃に使われたのは数十年前の手法だった
03.12

最先端AIプラットフォームが2時間陥落 ――攻撃に使われたのは数十年前の手法だった

Atlassianが1,600人を削減した理由——人件費をAI投資に振り替える構造が定着しつつある
03.12

Atlassianが1,600人を削減した理由——人件費をAI投資に振り替える構造が定着しつつある

Claudeが2週間でFirefoxの脆弱性22件を発見した——「見つける力」と「悪用する力」の非対称性
03.11

Claudeが2週間でFirefoxの脆弱性22件を発見した——「見つける力」と「悪用する力」の非対称性

Firefox
Firefox
Claude
Claude
Amazonが「AIコードの承認制」を導入か——80%使用目標が辿り着いた逆説
03.11

Amazonが「AIコードの承認制」を導入か——80%使用目標が辿り着いた逆説

Amazon
Amazon
Index

Index

上部へスクロール