世界

同意なしに「服を脱がす」ために使用されたアプリの作成者をティーンエイジャーが訴訟 |テクノロジー

10月 21, 2025 / nipponese

1761064184
2025-10-21 07:08:00

アメリカのティーンエイジャーの被害者 応用Portalticによると、生成人工知能を利用して服を着た画像から誰かの偽のヌードを作成するこのサービスは、それが引き起こす影響と、AIモデルを訓練するために画像を使用している可能性を理由に制作者を訴えたという。

2023年には、 高校の同級生 ジェーン・ドゥ(未成年者、この場合は17歳)の特定を避けるために使用された一般名で、彼らは彼女の画像を入手してアプリケーションにアップロードするために使用しました。わずか3回のクリックでその人の裸の画像が生成され、実際の画像と区別できない結果が得られます。

「ジェーン・ドウは悔しがり、感情的に傷つき、それ以来ずっとその影響を経験しています。」 要求のテキストを収集しますニュージャージー州連邦地方裁判所に提出されました。

この事実により、彼と彼の両親は、そのビジネスモデルが違法なヌードの作成を容易にするだけでなく、支払いプランを通じて、さらには開発者や他のプラットフォームへの基本技術の提供を通じてさえ、その配布と収益化を容易にすることを理解しているとして、アプリケーションを担当する会社AI/Robotics Venture Strategy 3を告訴するに至った。

「被告らのビジネスモデル全体は、子どもと大人の搾取と被害という刑事的・刑事的側面に基づいている」と、未成年者(いわゆる児童性的虐待素材)であろうと成人であろうと、同意のない人々のヌードの超現実的な画像(いわゆる児童性的虐待素材)や成人(同意のない親密な画像)に関連して、「それを児童ポルノ、搾取、「性的」虐待の温床にしている」と指摘されている。

また、「画像がどの程度配布されたかを判断する方法がないため、ジェーン・ドゥは現在、自分の画像がインターネット上で公開されたままになるのではないかと常に恐怖を感じている」とも述べられている。 アプリ そして他の場所でも。彼は、これらの画像が他の人に配布される可能性があること、そして自分の画像が会社の人工知能システムのトレーニングを支援するために使用され続けていること、そして今後も使用され続けることを懸念しています。 アプリ 他の少女たちからの児童性的虐待資料の生成を改善するためです。」

訴状によると、このアプリケーションは毎日平均20万枚の画像を生成し、約2700万回の閲覧が行われているという。まさにそのプロモーション アプリ は、無料サービスで「誰でもストリップ」するようユーザーを誘います。

#同意なしに服を脱がすために使用されたアプリの作成者をティーンエイジャーが訴訟 #テクノロジー