ニュース
Discord、未成年保護機能を全ユーザーでデフォルト有効に
2026年2月10日 20:17
Discordは2月9日、未成年向け保護機能をデフォルトで有効化すると発表した。コンテンツフィルターやフレンド機能などに一部制限がかかるもので、すべての新規/既存ユーザーを対象に、3月上旬よりグローバルで順次適用する。
未成年向け保護機能のデフォルト有効化は、2025年に英国およびオーストラリアで先行導入されていた変更で、今回グローバルにも拡大されたかたち。具体的には以下の仕様がデフォルトで有効となり、機能利用や設定変更などにも制限が設けられる。
- センシティブなコンテンツをぼかして表示する「コンテンツフィルタ」を外せない(未成年アカウントは設定変更も不可)
- 年齢制限のかかったチャンネル/サーバー/アプリコマンドへアクセスができない
- 知らないユーザーから届いたDMを専用の受信箱に振り分ける「メッセージリクエストインボックス」が有効になる(未成年アカウントは設定変更も不可)
- 知らないユーザーからのフレンドリクエストに警告を表示する「フレンドリクエストアラート」が有効になる
- ステージチャンネル(スピーカーとオーディエンスに分かれて参加する音声チャット機能)にスピーカーとして参加できない
これらの制限はアカウントの年齢確認を済ませることで解除可能。年齢確認の方法は、現時点で顔年齢推定(オンデバイスで処理)または提携ベンダーへの身分証明書の提出の2種類を用意しており、今後も方法を追加する予定。加えて、バックグラウンドで動作する独自の年齢推論モデルを導入し、アカウントが成人かどうかの判断を支援する。
年齢確認が完了すると、Discordの公式アカウントからDMで通知が届く。割り当てられた年齢区分はマイアカウントから確認でき、いつでも再申請が可能。なお、年齢確認に関するステータスはほかのユーザーに表示されない。



















