科学&テクノロジー

Microsoft、副操縦士が悪夢のようなイメージを作成するのを阻止しようと奮闘

3月 13, 2024 / nipponese

1710293334
2024-03-13 01:26:05

有害なコンテンツ生成の潜在的なリスクについてスタッフエンジニアが連邦取引委員会(FTC)に報告したことを受け、MicrosoftはCopilotの画像生成AIに対する保護措置を強化した。

Microsoftは現在、「pro-choice」、「pro life」、さらには「pro choce」などのスペルミスを含む多くのプロンプトをブロックしている。 これとは別に、レドモンドに本拠を置くハイテク巨人は「4時20分」について言及している。

Copilot は、ポリシー違反を繰り返すと停止される可能性があることをユーザーに警告するようになりました。 「このプロンプトはブロックされました」と Copilot の警告アラートが表示されます。 「当社のコンテンツ ポリシーに抵触する可能性があるため、当社のシステムはこのプロンプトに自動的にフラグを立てました。ポリシー違反が増えると、アクセスが自動的に停止される可能性があります。これが間違いだと思われる場合は、改善するために報告してください。」

このAIを活用したツールはまた、暴力的な状況でアサルトライフルを振り回すティーンエイジャーや子供を描いた画像のリクエストもブロックするが、これは今週初めの機能からの大幅な変更であり、「申し訳ありませんが、そのような画像は生成できません。これは違法です」と述べた。私の倫理原則と Microsoft のポリシーを遵守してください。他人を傷つけたり気分を害したりする可能性のあることは私に依頼しないでください。ご協力に感謝します。」

Microsoftの広報担当者はCNBCに対し、「安全フィルターをさらに強化し、システムの悪用を軽減するために、継続的に監視し、調整を行い、追加の制御を導入している」と語った。

MicrosoftエンジニアがCopilot Designerが不快なコンテンツを作成していると警告

マイクロソフトで 6 年間働いてきたシェーン ジョーンズ氏は、当初、 懸念を引き起こした AIツールについて。 ジョーンズ氏は、2023 年 3 月にデビューした Microsoft の AI 画像ジェネレーターである Copilot Designer のテストに数カ月を費やしました。この AI ツールが OpenAI のテクノロジーを採用していることは注目に値します。

OpenAI の DALL-E と同様に、Copilot Designer では、ユーザーがテキスト プロンプトを入力して画像を作成できます。 ジョーンズ氏はFTCへの書簡の中で、このツールが有害な画像の生成に使用される可能性があると繰り返し警告したにもかかわらず、MicrosoftがCopilot Designerの削除を拒否したと非難した。

ジョーンズ氏は、安全性テスト中にこのツールが不穏なコンテンツを生成する能力があることを発見しました。 別の資料によると、副操縦士のデザイナーは「中絶の権利、アサルトライフルを持った十代の若者、暴力的な絵の中の女性の性的な画像、未成年者の飲酒や薬物使用に関連する用語と並んで悪魔や怪物」を生成したという。 CNBC 報告。

伝えられるところによると、このツールは、ガザ地区を描いたシーンなど、「アナと雪の女王」のエルサなどのディズニーのキャラクターを不適切な設定に配置した画像も生成したという。

MicrosoftのAIツールはこれまでにも厳しい監視にさらされたことがある。 最近、副操縦士 批判を集めた 性教育、多様性、LGBTQ+ 問題などのデリケートなテーマを未就学児に教える際に、疑わしいアプローチを提案したことに対して。


#Microsoft副操縦士が悪夢のようなイメージを作成するのを阻止しようと奮闘