
目次
ロイター通信の報道(2026年2月19日)によると、英政府はプラットフォーム事業者に対し、本人の同意なしに生成・共有された性的画像を48時間以内に削除する義務化案を提示した。
違反した場合には高額な罰金が科される可能性もあるとされている。
これはAI技術によって容易に加工・生成される画像コンテンツが社会問題化していることを背景とする。
具体的には、プラットフォームが同意のない性的画像を放置した場合、世界売上高の最大10%相当の罰金や英国でのサービス停止の可能性が論点になっている。
こうした動きは、AI技術を取り巻く法規制が、チャットボットの安全性にとどまらず、生成コンテンツ全般のプラットフォーム責任へと拡大していることを示している。
この記事の要点
- 英政府は生成AIによる同意なし性的画像の削除を48時間義務化する規則案を提示した。
- これはプラットフォーム事業者に対するコンテンツ責任の明確化を狙うもの。
- 米国のチャットボット規制とは法的焦点が異なるが、AI・生成コンテンツ全般のリスク管理という観点で共通している。
- 企業は法制度の動向を踏まえたガバナンス設計とコンプライアンス体制を強化する必要がある。
なぜこの規制が生まれたのか
この規制案が浮上した背景には、生成AIを使った性的加工画像の拡散事件がある。
特にソーシャルメディア上で、実在の人物に無断で性的な加工を施した画像が大量に共有される事例が発生し、社会的批判を招いたことが法案検討のきっかけとなった。
英国では、従来から同意なしの性的画像共有は違法とされているが、生成AIの普及によってデジタル空間のリスクが現実社会の被害へと直結する可能性が高まっている。
このため、従来の削除要請ベースの対応から、事業者義務化による即時対応へと規制の強化が動き出している。
生成コンテンツ規制は“AIチャットボット規制”とどう違うのか
米国ではAIチャットボットそのものに対する規制動向が注目されている。
特に未成年への有害性や年齢確認などを義務付ける法案が27州で提出されているという調査結果が報じられている。
関連記事:AIチャットボット規制が全米27州へ拡大|企業が今考えるべき安全設計とは
一方で英国の規制案は、プラットフォーム上の生成コンテンツそのものの責任範囲を明確化し、悪質なコンテンツに対して事業者が義務的に削除を行うことを求めている点が異なる。
つまり、規制対象の焦点と法的義務が異なる。
- 米国:チャットボット自体の安全設計と利用制限
- 英国:プラットフォームで生成・共有されるコンテンツの管理責任
企業に求められる対応
こうした動きは単に海外の法制度の話にとどまらない。
2020年代後半に向けて、各国で生成AIやプラットフォーム責任に関する法整備が進展する可能性が高い。
企業としては、以下のような対応を検討する必要がある。
1. コンプライアンス体制の強化
生成コンテンツの公開前・公開後に法的リスクを検知・評価できる内部プロセスの構築が必要となる。
特に性的表現や差別的内容など、社会的リスクが高いコンテンツに対する審査体制の整備は不可欠である。
2. 自動検出・削除機能の実装
生成AIが作り出すコンテンツは量産性が高いため、人手での審査だけでは対応できない。
AIによる自動検出・削除の機能を設計し、実装していくことが重要だ。
3. 法制度の最新動向の継続的ウォッチ
今回の英国の規制案は、欧州各国や米国をはじめ他地域でも類似の動きが出る可能性を示唆している。
法制度の最新動向を継続的に把握し、ガバナンス対応を前倒しで進めることがリスク軽減につながる。
今後の展望:プラットフォーム責任とガバナンス
今回の英政府の方針は、プラットフォーム事業者に対してコンテンツ責任の“積極的な義務化”を課す試みである。
生成AIによって拡散するリスクは、チャットボットの応答だけにとどまらず、画像・動画など多様化している。
企業は「ただ技術を提供するだけ」ではなく、「社会的責任を担保する仕組みを構築する」必要がある。
この意味で、法制度の追随に対応できるガバナンス設計は、今や企業の競争力の一部となりつつある。