1772131291
2026-02-26 15:43:00
この警告は来週、米国、英国、オーストラリア、カナダでインスタグラムの保護者監視ツールを使用する保護者を対象に開始され、今年後半にはアイルランドやその他の地域でも利用可能になる予定だ。
Instagramの親会社であるMetaは、今年後半に向けて、10代の若者とAIとの会話に対する同様の保護者向け通知も構築中であると述べた。
ソーシャルメディア企業は、ユーザーのフィードにコンテンツを集中させるアルゴリズムについて長年批判にさらされてきた。
これらのシステムは、自殺、自傷行為、摂食障害に関するコンテンツなど、子供にとって不適切で有害な投稿を促進しているとして、研究者や運動団体によって「有害」というレッテルを貼られることがよくあります。
Instagramは、本日発表した新しい警告システムは、10代のアカウントとInstagramの保護者による監視機能に対する最新の保護であると述べた。
アラートは、利用可能な連絡先情報に応じて、電子メール、テキスト、または WhatsApp 経由で保護者に送信されるほか、アプリ内通知を通じて保護者に送信されます。
通知をタップすると、子供が短期間にインスタグラムで自殺や自傷行為に関連する用語を繰り返し検索しようとしたことを説明するメッセージが全画面で表示される。
「大多数の十代の若者はインスタグラムで自殺や自傷行為のコンテンツを検索しようとはしない。そうした検索があった場合、私たちのポリシーはこうした検索をブロックし、代わりにサポートを提供できるリソースやヘルプラインに誘導することだ」とインスタグラムは述べた。
「これらのアラートは、自分の十代の若者がこのコンテンツを繰り返し検索しようとしているかどうかを親が確実に認識できるようにし、十代の若者をサポートするために必要なリソースを提供するように設計されている」と付け加えた。
同プラットフォームは、不必要に通知を送信することは避けたいと述べており、送信しすぎるとアラート全体の有用性が低下する可能性があるとしている。
「この重要なバランスをとるために、私たちはインスタグラムの検索行動を分析し、自殺・自傷行為諮問グループの専門家に相談した」とインスタグラムは述べた。
「我々は、注意を怠りながらも、短期間に数回の検索を必要とする閾値を選択した」と付け加えた。
インスタグラムは、自殺や自傷行為を促進または美化するコンテンツに対して厳しいポリシーを設けていると述べた。
「私たちは人々がこれらの問題との闘いについてのコンテンツを共有することを許可していますが、たとえフォローしている人が共有したとしても、このコンテンツは十代の若者には非表示にします」とプラットフォームは述べた。
#Instagram十代の若者が自殺に関する用語を検索した場合に親に警告