ニュース

Discord、未成年保護機能を全ユーザーでデフォルト有効に

 Discordは2月9日、未成年向け保護機能をデフォルトで有効化すると発表した。コンテンツフィルターやフレンド機能などに一部制限がかかるもので、すべての新規/既存ユーザーを対象に、3月上旬よりグローバルで順次適用する。

 未成年向け保護機能のデフォルト有効化は、2025年に英国およびオーストラリアで先行導入されていた変更で、今回グローバルにも拡大されたかたち。具体的には以下の仕様がデフォルトで有効となり、機能利用や設定変更などにも制限が設けられる。

  • センシティブなコンテンツをぼかして表示する「コンテンツフィルタ」を外せない(未成年アカウントは設定変更も不可)
  • 年齢制限のかかったチャンネル/サーバー/アプリコマンドへアクセスができない
  • 知らないユーザーから届いたDMを専用の受信箱に振り分ける「メッセージリクエストインボックス」が有効になる(未成年アカウントは設定変更も不可)
  • 知らないユーザーからのフレンドリクエストに警告を表示する「フレンドリクエストアラート」が有効になる
  • ステージチャンネル(スピーカーとオーディエンスに分かれて参加する音声チャット機能)にスピーカーとして参加できない

 これらの制限はアカウントの年齢確認を済ませることで解除可能。年齢確認の方法は、現時点で顔年齢推定(オンデバイスで処理)または提携ベンダーへの身分証明書の提出の2種類を用意しており、今後も方法を追加する予定。加えて、バックグラウンドで動作する独自の年齢推論モデルを導入し、アカウントが成人かどうかの判断を支援する。

 年齢確認が完了すると、Discordの公式アカウントからDMで通知が届く。割り当てられた年齢区分はマイアカウントから確認でき、いつでも再申請が可能。なお、年齢確認に関するステータスはほかのユーザーに表示されない。