世界

AI は男らしさ、人種差別、著作権侵害に満ちた音声を生成する |テクノロジー

12月 9, 2024 / nipponese

1733723127
2024-12-09 04:20:00

メロディーや音声の転写から視覚障害者向けの支援まで。の 生成人工知能 (AI) 音響技術は飛躍的に進歩し、高品質なオーディオを作成できるようになりました。それにもかかわらず、AIのトレーニングに使用されたデータには偏見、攻撃的な言葉、著作権で保護されたコンテンツの使用が見落とされていたと研究結果は主張している。研究者チームは、175 の音声、音楽、音声データ セットの徹底的なレビューを実施しました。 予備作業では、偏った内容が含まれていることを警告しています。 テキストや画像のデータベースで見つかったものと同様です。

カーネギーメロン大学 (米国) のウィリアム・アグニュー率いる科学者たちは、1 年間にわたって 7 つのプラットフォームからの 680,000 時間の音声と合計 600 件の調査を研究し、その内容、バイアス、起源を分析しました。したがって、科学者たちは音声の転写から歌の歌詞に至るまであらゆるものを入手しましたが、そのほとんどは英語でした。ファイルには、音声録音 (人が読み上げた文章)、AudioSet や Free Music Archive などのプラットフォームからの音楽、さらに 200 万本の 10 秒間の YouTube ビデオが含まれていました。

たとえば、分析では、「男性」という単語が戦争や歴史などの概念に関連していることが検出され、「女性」という単語に関連する用語には、介護や家族に関連する店や母親が含まれていましたが、他の場合には、次のような侮辱も検出されました。雌犬。特に、Free Music Archive と LibriVox には、何千もの人種差別用語が含まれていました( ネグラータ) そして性的多様性に対する差別。 「声は 奇妙な これらは研究者によって無視されており、その原因の一部はこれらのデータセットの構築方法にあります」と、カリフォルニア大学の音声研究者であり、この研究の共著者であるロビン・ネッツォーグ氏は述べています。

研究者らは、固定観念に適切に対処しないと、音声データセットが偏見や現実の歪んだ概念を「永続させ、さらには加速させる」パターンを生成する可能性があると考えている。ノースウェスタン大学(米国)のコンピューターサイエンスの博士で、この研究の共同研究者でもあるジュリア・バーネット氏は、人々は偏見に気づいていないと断言する。 「その結果、データセットをその真の構成を理解せずに人間性を反映したものとして見ると、後々さまざまな悪影響が生じることになります」と彼は言います。

人工知能の専門家であり、デンマークのオールボー大学准教授であるアンドレス・マセゴサ氏は、バイアスについて何も驚くべきことではないと述べています。「このテクノロジーは、一連のデータからパターンを抽出することに成功し、単に既存のものを複製しようとしているだけです。」 AIは人間の学習とよく似た働きをする、と彼は示唆する。 「子供を性差別的な行動にさらすと、子供は単に無意識のうちにその偏見を再現するでしょう」と、研究には参加していないこの学者は主張する。

「バイアスを回避しようとする試みは数多くありますが、明らかなことは、モデルの能力が低下しているということです。 AI の分野では、それぞれの社会が持つさまざまなビジョンを反映した議論が行われています」とマセゴサ氏は付け加えます。専門家は、実施された調査が大規模な監査であることを認識しており、データセットの調査はかなりの費用がかかる仕事であると考えています。

テキストデータとは異なり、音声データにはより多くのストレージが必要だと、この研究に参加したカーネギーメロン大学ヒューマンコンピュータインタラクション研究所の学者ソーヴィク・ダス氏は言う。これは、監査するにははるかに高い処理能力が必要であることを意味します。 「より高品質なモデルを作成するには、より多くのデータが必要です」と彼は主張します。

音声は生体データです

潜在的な損害 生成オーディオ技術 それはまだ知られていません。科学者らは、この種のコンテンツは、特にこれらのシステムが許可なく使用されるデータを使用してトレーニングされている場合、人々の宣伝権、誤った情報、知的財産に至るまで、社会的および法的影響を与える可能性があると提案しています。この調査では、分析された音声の少なくとも 35% が、次の方法で保護されたコンテンツを提示していたことが示されています。 著作権 または著作権。

声は人の身体的特徴の一部であるため、自分自身のイメージに対する権利に関連しています。デジタル法の専門家である弁護士のボルハ・アドスアラ氏は、データ保護や知的財産に関して、音声にもAIで生成されたテキストや画像と同じ問題があると指摘する。 「音声は生体認証データであり、指紋や目の虹彩と同様に特別に保護されています。使用が許可されていない場合、違反する可能性があります」とこの専門家は説明します。

アドゥアラは、この女優が巻き込まれた有名な論争を思い出している スカーレット・ヨハンソン、2024年5月にチャットボット OpenAIの彼は、彼の声に似たトーンを持っていました。 AIはまた、ミュージシャンの声を使用して、演奏したことのないメロディーを歌っているようにシミュレートしました。 プエルトリコ人のバッド・バニーとスペイン人アーティストのバッド・ギャル。 「自分の声の肖像権を侵害するだけでなく、通訳の知的財産権も侵害します。問題は同じですが、生成人工知能がそれをはるかに簡単にします。 犯罪を犯す さもなければ妨害を犯します」と彼は説明する。

#は男らしさ人種差別著作権侵害に満ちた音声を生成する #テクノロジー