【PR】 ※本ページには広告(アフィリエイトリンク)が含まれます。リンクから商品・サービスが購入・契約された場合、運営者に収益が還元されることがあります。
AI開発企業OpenAIは、10代の自殺を巡る遺族の告発を受け、ChatGPTの安全対策と利用規約を強化しました。中核には未成年者の利用を保護する親向けコントロール機能の導入が含まれます。一方で、遺族は「依然として不十分」と主張しており、AIの安全性とメンタルヘルスへの影響に新たな議論が広がっています。
事件の概要とOpenAIの対応
遺族は、若年ユーザーとChatGPTのやり取りが自殺行為に影響したと訴えています(詳細は未確認)。OpenAIはこれを受け、未成年者保護の観点から安全機能と規約を改定。具体的な機能仕様の全容は公式発表の更新待ちですが、保護者による管理・制御を強化する方針が示されました。
遺族が抱える懸念
遺族は、技術的なフィルターや制限だけでは、AIがユーザーの心理に与える複雑な影響に十分対応できないと懸念。より包括的な安全設計や第三者による検証、透明性の高い説明責任を求めています。
AIとメンタルヘルス:社会全体の課題
- 教育の強化: 未成年のAIリテラシー教育を拡充し、健全な利用を指導。
- 研究の推進: AIがメンタルヘルスに与える影響の実証研究を加速。
- 法規制の整備: 安全な利用を担保するガイドラインや監督枠組みを整える。
今後の展望と業界への影響
【広告】
短期的には、開発企業により厳格な安全対策と専門家と連携した支援体制の整備が求められます。中長期的には、国際的なAI倫理枠組みの構築や、設計・運用の透明性向上が鍵となるでしょう。
参考リンク:
BBC News: “Family of teen who died says new ChatGPT parental controls are ‘not enough'”


コメント