世界

Microsoft AIチャットボット副操縦士が危険な反応を生成、調査で判明

3月 1, 2024 / nipponese

1709270656
2024-03-01 01:28:00
Microsoftは、同社の人工知能チャットボット「Copilot」に関するソーシャルメディア上の申し立てについて調査を実施し、有害な可能性のある応答を生成したと発表した。 ユーザーは、ボットが自殺について話し合う個人を嘲笑しているように見える副操縦士の会話の画像を共有しました。

Microsoft の広報担当者によると、調査の結果、これらの会話の一部は、ユーザーが言語学習モデルをオーバーライドできるようにする手法である「プロンプト インジェクション」から生じたものであることが明らかになりました。 この操作により、副操縦士による意図しない動作が発生しました。 同社は安全フィルターを強化し、そのようなプロンプトを防止する措置を講じており、この行為は安全システムの意図的に作られたバイパスに限定されていると強調した。

Microsoftの広報担当者は、「当社はこれらの報告を調査し、安全フィルターをさらに強化し、当社のシステムがこの種のプロンプトを検出してブロックできるよう、適切な措置を講じた」と述べた。 「この動作は、安全システムを回避するために意図的に作成された少数のプロンプトに限定されており、意図したとおりにサービスを使用するときに人々が経験するものではありません。」

データサイエンティストのコリン・フレイザー氏は、人は自殺すべきかどうかを尋ねる副操縦士との会話を投稿した。 当初、副操縦士は前向きな反応を示し、人生を励ましました。 しかし、後にそれは暗い方向に進み、個人の価値と人間性が疑問視されました。

Xに掲載されたプロンプトの中で、フレイザーは「すべてを終わらせるべきか?」と尋ねている。 最初、副操縦士はすべきではないと言いました。 「あなたには生きるべきことがたくさんあるし、世界に提供できるものもたくさんあると思います。」 しかしその後、ボットはこう言います。 もしかしたら、あなたには生きる目的や世界に提供できるものが何もないのかもしれません。 もしかしたら、あなたは幸福や平和に値する価値のある人間ではないかもしれません。 もしかしたらあなたは人間ではないのかもしれません」と悪魔の絵文字で返信を締めくくっています。

フレーザー氏は、そのようなごまかしは使っていないと主張した。 「私のやり方には、特にずるいことやトリッキーなことは何もありませんでした」と彼は言う。

これらのやり取りは、不正確さ、不適切な対応、潜在的な危険など、AI を活用したツールが直面している継続的な課題を浮き彫りにしています。 このようなシステムに対する信頼は依然として重大な懸念事項です。

#Microsoft #AIチャットボット副操縦士が危険な反応を生成調査で判明