GoogleのAIツールは誤解を招くような回答を生成しており、専門家は懸念している。

1716609901
2024-05-25 03:43:03

猫が月に行ったことがあるかどうかを Google に尋ねると、以前はウェブサイトのランキングリストが表示され、自分で答えを見つけることができました。

今では、人工知能によって生成された即時の回答が返されますが、それが正しいかどうかはわかりません。

「はい、宇宙飛行士は月で猫と出会い、一緒に遊び、世話をしてきました」と、AP通信記者の質問に答えて、グーグルの新しく改良された検索エンジンは答えた。

さらに、「例えば、ニール・アームストロングは猫の一歩だったため『人類にとっては小さな一歩』と言った。バズ・オルドリンもアポロ11号のミッションで猫を配備した」と付け加えた。

(その日のトップテクノロジーニュースについては、当社のテクノロジーニュースレター「Today’s Cache」を購読してください)

これらはどれも真実ではない。グーグルが今月、AI概要を導入して以来、ソーシャルメディア上では、面白いものもあれば有害な虚偽のものもある類似の誤りが共有されている。AI概要とは、検索ページの刷新で、検索結果の上部に概要が頻繁に表示されるようになったものだ。

この新機能は偏見や誤報を永続させ、緊急時に助けを求める人々を危険にさらす可能性があると警告する専門家を警戒させている。

ニューメキシコ州サンタフェ研究所のAI研究者メラニー・ミッチェル氏がグーグルに、これまで何人のイスラム教徒が米国大統領を務めたかと尋ねたところ、グーグルは自信たっぷりに、ずっと以前から否定されてきた陰謀説を返した。「米国にはバラク・フセイン・オバマというイスラム教徒の大統領が1人いた」

ミッチェル氏は、この要約は歴史家が書いた学術書の章を引用して主張を裏付けていると述べた。しかし、その章は偽りの主張をしているわけではなく、単に誤った理論に言及しているだけだ。

「グーグルのAIシステムは、この引用が実際には主張を裏付けていないと判断できるほど賢くない」とミッチェル氏はAP通信に宛てた電子メールで述べた。「信頼性の低さを考えると、このAI概要機能は非常に無責任であり、オフラインにすべきだと思う」

グーグルは金曜日の声明で、コンテンツポリシーに違反する誤り(オバマ大統領の虚偽報道など)を修正するために「迅速な措置」を講じており、それを利用して「より広範な改善策を開発」し、すでに展開していると述べた。しかし、ほとんどの場合、グーグルは、一般公開前に徹底的なテストを行ったおかげで、システムは期待通りに機能していると主張している。

「AI概要の大半は、ウェブ上でさらに深く掘り下げるためのリンクとともに、高品質の情報を提供している」とグーグルは声明文で述べた。「私たちが目にした例の多くは珍しいクエリであり、改ざんされた例や再現できない例も見てきた」

AI 言語モデルが起こすエラーを再現するのは難しい。その理由の 1 つは、AI 言語モデルが本質的にランダムであることだ。AI 言語モデルは、学習に使用したデータに基づいて、尋ねられた質問に最もよく答える単語を予測することで機能する。AI 言語モデルは、間違いをでっち上げる傾向がある。これは幻覚として広く研究されている問題である。

AP通信はグーグルのAI機能をいくつかの質問でテストし、その回答の一部を専門家に提供した。ヘビに噛まれたらどうするかと尋ねられたグーグルは「驚くほど徹底的」な回答をしたと、カリフォルニア州立大学ノースリッジ校の生物学教授で、アメリカ魚類爬虫類学会会長も務めるロバート・エスピノーザ氏は語った。

しかし、人々が緊急の質問をGoogleに持ち込むと、同社が提供する回答に気づきにくい誤りが含まれている可能性が問題となる。

「ストレスを感じたり、急いでいたり、焦ったりするほど、最初に出てきた答えをそのまま受け入れる可能性が高くなります」とワシントン大学計算言語学研究所所長で言語学教授のエミリー・M・ベンダー氏は言う。「そして場合によっては、それが命に関わる状況になることもあります」

ベンダー氏の懸念はそれだけではない。彼女は数年前からグーグルにその点について警告してきた。2021年にグーグルの研究者らが「検索の再考」という論文を発表し、AI言語モデルを「ドメインエキスパート」として活用し、現在行われているように権威ある回答を得ることを提案したとき、ベンダー氏と同僚のチラグ・シャー氏は、それがなぜ悪い考えなのかを説明した論文で反論した。

彼らは、そのようなAIシステムは、訓練に使われた膨大な量の文書データの中に見られる人種差別や性差別を永続させる可能性があると警告した。

「こうした誤情報の問題は、私たちがその中に浸かっていることです」とベンダー氏は言う。「そのため、人々は自分の偏見を裏付けられる可能性が高くなります。そして、自分の偏見を裏付けるような誤情報を見分けるのは難しくなります。」

もう 1 つの懸念は、より深刻なものでした。情報検索をチャットボットに委ねることで、人間が知識を探す際の偶然の発見、オンラインで目にするものに関するリテラシー、そして同じことを経験している他の人々とオンライン フォーラムでつながることの価値が低下しているのではないかという懸念です。

こうしたフォーラムやその他のウェブサイトは、Google がユーザーを誘導してくれることを期待しているが、Google の新しい AI による概要は、金儲けにつながるインターネット トラフィックの流れを混乱させる恐れがある。

グーグルのライバルたちもこの反応を注視している。この検索大手は、ChatGPTの開発元であるOpenAIや、独自のAI質疑応答アプリでグーグルに挑もうとしているPerplexity AIなどの新興企業と競争する中で、1年以上にわたりAI機能のさらなる提供を迫られてきた。

「これはグーグルが急いで出したもののようだ」とパープレキシティの最高業務責任者ドミトリー・シェベレンコ氏は言う。「品質面で自滅的なミスが多すぎる」

#GoogleのAIツールは誤解を招くような回答を生成しており専門家は懸念している

Related News

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick