【PR】 ※本ページには広告(アフィリエイトリンク)が含まれます。リンクから商品・サービスが購入・契約された場合、運営者に収益が還元されることがあります。
米国連邦取引委員会(FTC)は、子ども・ティーンの利用が広がる「コンパニオン型」AIチャットボットの安全性と運用実態を把握するため、FTC法6(b)に基づく情報提出命令を発出し、7社に対して詳細な情報提供を求める調査(スタディ)を開始しました。対象はAlphabet、Character Technologies(Character.AI)、Instagram、Meta、OpenAI、Snap、X.AIの計7社で、調査開始は2025年9月11日と公表されています。
なぜこの調査が重要なのか
今回の調査は、未成年ユーザーの安全確保を最優先に、各社がどのように有害コンテンツを抑制し、年齢制限・保護者向けの周知を行っているかを検証する狙いがあります。結果次第では、プロダクト設計やデータ取扱い、マネタイズ手法の見直しなど、業界全体の標準に影響を与える可能性があります。
調査の焦点
- 利用制限と保護機能:年齢確認、保護者向けコントロール、危険助長の防止策は有効か。
- 安全性評価の方法:有害影響(性的・自傷関連など)の測定・テスト・監視体制。
- データとマネタイズ:未成年のデータ収集・利用・共有の扱い、会話データの収益化の透明性。
日本への示唆
日本でも生成AIの導入が進むなか、未成年ユーザーの保護は喫緊の課題です。国内事業者は、安全設計(Safety by Design)と透明性の高い運用、そして保護者・教育現場との連携を軸に、国際的な基準を見据えた実装が求められます。
留意点
【広告】
今回の6(b)調査は実態把握と政策判断の基礎資料収集が目的で、直ちに制裁を科す法執行とは異なります。ただし、結果によっては規制強化や個別の法執行につながる可能性があります。
参考リンク
- FTC公式発表:FTC Launches Inquiry into AI Chatbots Acting as Companions
- FTC委員声明(PDF):6(b)スタディの目的と範囲
- Reuters:FTC launches inquiry into AI chatbots of Alphabet, Meta, five others


コメント