ニュース

XのAI「Grok」、他人を水着姿に変えられないよう対策。画像編集は有料機能に

 X(旧Twitter)は、「Grok」を使った子どもの性的画像や同意のないヌード画像の生成といった行為に対し、削除や通報といった対策を講じると発表した。

 同社では、こういった違反コンテンツの削除を優先的に行なうとともに、規約に違反するアカウントに対して措置を講じると説明。さらに、子どもの性的画像を入手しようとするアカウントについては、必要に応じて法執行機関へ通報するとした。

 また、実在人物の画像をビキニなど露出度の高い服装へAI編集できなくなるよう、Grokアカウントに技術的な対策を実施。このような行為が違法となる地域では、ジオブロックによるアクセス制限も行なう。さらに、Grokアカウントによる画像生成および画像編集機能を有料ユーザーのみに制限し、悪用の防止を図る。

 同社は発表の中で、社内の安全対策チームは24時間体制で追加の対策を導入し、規約違反/違法コンテンツの削除、アカウントの永久停止、必要に応じた法執行機関との連携に取り組んでいると説明した。

 GrokのAI画像編集は2025年12月下旬に追加された機能。他人が投稿した画像にも使えるなど悪用の可能性があることから、実装当初から批判の声が上がっており、以降も子どもや同意のない人物の性的画像の生成にGrokが用いられていると指摘されていた。これを受けて一部の国では、Grokへのアクセス制限を実施する、事態の調査を進めるといった動きがみられている。