1772450049
2026-02-26 16:08:00
この記事を聞く
推定2分
この記事の音声版は AI ベースのテクノロジーによって生成されています。発音の間違いが発生する可能性があります。私たちはパートナーと協力して結果を継続的に見直し、改善しています。
オーストラリア政府による16歳未満のソーシャルメディアの使用禁止に従うよう政府への圧力が高まるなか、インスタグラムは、10代の子どもが短期間に自殺や自傷行為に関連する用語を繰り返し検索した場合、保護者に通知すると発表した。
Meta Platforms Inc.が所有するInstagramは木曜日、子供が自殺や自傷行為のコンテンツにアクセスしようとした場合、オプションの監視設定に登録している保護者に警告を開始すると発表した。警告は来週、カナダ、米国、英国、オーストラリアで登録した人を対象に開始されます。
同プラットフォームは声明で、「これらのアラートは、Instagram上の潜在的に有害なコンテンツから十代の若者たちを守るための既存の取り組みに基づいている」と述べた。 「私たちは、自殺や自傷行為を促進または美化するコンテンツに対して厳しいポリシーを持っています。」
インスタグラムによると、既存のポリシーはそのような検索をブロックし、ユーザーをサポートリソースにリダイレクトすることだという。
政府は、特に同意のない性的な画像を生成した AI チャットボット Grok に対する懸念を受けて、オンラインでの危害から子供たちを守ろうとする傾向が強くなっています。
英国は12月のオーストラリアの措置を受けて、オンラインで子供たちを保護するための制限を検討していると1月に発表した。スペイン、ギリシャ、スロベニアもここ数週間、アクセス制限を検討していると発表した。
Instagramは、強化されたペアレンタルコントロールとプライバシー機能を備えた新しい10代のアカウントを展開しているが、一部の保護者は、プラットフォームを若いユーザーにとって安全にするためにメタはまださらなる努力が必要だと主張している。
英国では、児童向けのポルノサイトへのアクセスを阻止するための措置が大人のプライバシーに影響を及ぼし、言論の自由や規制範囲の制限を巡って米国との緊張を招いている。
Instagram の 16 歳未満向けの「ティーン アカウント」では、設定を変更するには親の許可が必要ですが、親はティーンエイジャーの同意を得て、追加の監視レイヤーを選択できます。また、十代のユーザーが性的なものを示唆したり、暴力を示したりするなどの「デリケートなコンテンツ」を見ることもブロックします。
#Instagramは10代の若者の自殺関連の検索について保護者に警告する
