OpenAIは、新しい音声クローン作成ツール「Voice Engine」を発表しました。

1711791766
2024-03-30 09:38:58

詐欺やなりすましなどの犯罪を防止するため、ご利用を制限させていただきます。
キリル・クドリャフツェフ/-

この人工知能モデルは、15 秒の音声サンプルから人の声を再現できます。

偽情報を提供する追加のツール? オープンAI、 生成人工知能(AI)の巨人 ChatGPTの発行者である同社は金曜日、個人情報の盗難などの詐欺や犯罪を防ぐために使用が制限される音声クローン作成ツールを発表した。 洗礼を受ける 「音声エンジン」小規模テストの結果に関するOpenAIの声明によると、このAIモデルは15秒の音声サンプルから人の声を再現できるという。

「私たちは、人々のような声を生み出す能力には重大なリスクが伴うことを認識しており、それは今年の選挙の年に特に重大です。」とサンフランシスコに本拠を置く同社は語った。 「私たちは政府、メディア、エンターテイメント、教育、市民社会、その他の分野の米国および国際的なパートナーと協力しており、ツールの開発にあたり彼らのフィードバックを考慮に入れています。」

世界中でこの重要な選挙の年に、偽情報研究者たちは、生成型 AI アプリケーション (テキスト、画像などの自動生成)、特に安価で使いやすく、追跡が難しい音声クローン ツールの悪用を懸念しています。 OpenAI は採用したことを保証しました 「慎重かつ情報に基づいたアプローチ」 新しいツールが広く配布される前に 「合成音声が悪用される可能性があるため」

クローン音声を使用した通話は禁止されています

この慎重なプレゼンテーションは、ジョー・バイデンの民主党のライバルの大統領選挙キャンペーンで働くコンサルタントが、アメリカ大統領になりすまして彼の再選を運動させる自動プログラムを開発したという重大な政治的事件の後に行われた。 ジョー・バイデンの声を模倣した声は有権者にニューハンプシャー州の予備選で棄権するよう呼びかけた。 それ以来、米国は政治的または商業的な詐欺と戦うために、AIによって生成されたクローン音声を使用した通話を禁止しました。

OpenAI は、テストを行うパートナーが 「音声エンジン」 とりわけ、声が複製される人からの明示的かつインフォームド・コンセントと、聞き手への透明性を要求するルールに同意しました。つまり、聞こえる声が AI によって生成されたものであることを明確にする必要があります。 「私たちは、音声エンジンによって生成された音声の出所を追跡できる透かし入れや、その使用状況のプロアクティブな監視など、さまざまなセキュリティ対策を実装しました。」OpenAIは主張した。

昨年10月、ホワイトハウスは透明性を含むAIの開発を管理する規則と原則を発表した。 ジョー・バイデンは、犯罪者が家族の一員を装って人々を罠にかけるためにそれを利用するというアイデアに感動した。

” data-script=”https://static.lefigaro.fr/widget-video/short-ttl/video/index.js” >

#OpenAIは新しい音声クローン作成ツールVoice #Engineを発表しました

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick