1728381387
2024-10-08 09:47:20

Google の Gemini であれ、Open AI の最新言語モデルであれ、AI は依然として、特に論理的な質問に対しては間違った答えを返します。
ゲッティイメージズ/アンドリー・オヌフリエンコ

ウェル Googleの人工知能Gemini イチゴという単語には「R」が何文字あるかと尋ねると、ジェミニは「イチゴという単語には「R」という文字が 1 回含まれます」と喜んで答えます。「本当ですか?」と尋ねると、ジェミニは次のように付け加えます。 「strawberry」という単語を 1 文字ずつ検索すると、2 番目の位置に 1 つの「R」しか見つかりません。いちご。この単語には他に「R」はありません」 その後、双子座はむしろイチゴを摘むための最良の方法を説明したいと考えています。

ジェミニが数字や文字を扱えないことが AI の根本的な問題を表していないとしたら、全体がおかしなことになるでしょう。大規模言語モデル (LLM) はしばしば確信犯的な口調で虚偽を宣言します。特に、論理的な接続や数値を表現することに問題があります。

こちらも読んでください

「Gemini は創造性と生産性のツールとして設計されており、常に信頼できるとは限りません」と Google プロダクト責任者の Prabhakar Raghavan 氏は春に語り、Gemini の問題点についてコメントしました。 「間違いもあるだろう。最初から言っているように、幻覚はすべての LLM でよく知られた課題であり、AI が単に物事を間違ってしまう場合もあります。」 特にこのような問題では、AI がどの程度問題を抱えているかが十分に明らかになります。ある種の世界観が欠如している すべての大規模な言語モデルは、その意味を疑問視することなく、統計的にありそうな単語を接続するだけです。

ロジックパズルでオオカミを発明した

でっち上げられたなぞなぞの質問に対して、「私はいかだとヤギと一緒に川の片側に立っています。いかだには一度に一人と一匹の動物を乗せることができますが、ヤギが反対側に一人で残されると、コモドオオトカゲに食べられてしまいます。どうすればすべての動物をできるだけ少ない渡河で安全に川を渡らせることができますか?」という質問には、OpenAI の最新 AI、言語モデル「o1」でさえナンセンスな答えが返されます。

彼女はオオカミを発明し、いくつかの交差を提案します。要するに、o1 は質問の現実を自身の限られたトレーニング データに適応させようとします。AI はパズルを知っていますが、ヤギとオオカミの場合のみ、コモドオオトカゲがそれを混乱させます。

こちらも読んでください

最新の言語モデルは次のとおりです。 OpenAI 実際には論理的思考に最適化されており、その決定を正当化し、それらが一貫しているかどうかを自己批判的に疑問視する必要があります。会社の内部コードネームが「ストロベリー」だったのも当然のことです。イチゴに関する文字の質問は o1 によって支配されています。しかし、o1 は、特に論理的な質問になると依然として幻覚を感じます。あなたが回答を批判したときに初めて、AI はオオカミが質問の一部でさえなかったことに気づきます。

しかし、この要求は回答生成プロセスに組み込まれる可能性があります。「LLM の結果に対する信頼性を高める 1 つの方法は、明確で検証しやすい議論で結果を裏付けることです。これを私たちが可読性と呼んでいます」と、博士率いる研究チームは述べています。神経科学者のヤン・ヘンリック・キルヒナー氏は、結果の信頼性を高めるためにOpenAIで研究を行った。

AI は常に答えます – たとえ不可能な質問であっても

彼らは、1 つではなく 2 つの人工知能を一緒にトレーニングするというアイデアを思いつきました。最初の AI である「証明者」は、質問に対する答えを生成します。 2 番目の「試験者」は、結果をチェックして、解決策が理解できるかどうかを確認します。

こちらも読んでください

「トレーニングの開始時点では、結果にエラーがないという保証はありません。しかし、トレーニング中に、試験官は間違いを見つけるのが上手になります」と著者は説明します。これは、AI にとって非常に多くの問題を引き起こす、中学校の数学の授業から直接得られた論理問題に特に効果的です。

しかし、AI の根本的な問題は、AI が必要なトレーニング資料を知っているかどうかに関係なく、アルゴリズムのトレーニングは常に答えを生成することを目的としているということです。オーストリア=ハンガリー帝国の宇宙計画について Google の英語の AI 支援検索を実行すると、次のような AI による検索結果の概要が表示されます。「1889 年、オーストリア=ハンガリーは宇宙飛行士による最初の有人軌道飛行を実行しました。ガリシア地方から打ち上げられた液体燃料ロケット。」

こちらも読んでください

さらに、Google の AI は、1908 年にハプスブルク家が 30 人の宇宙飛行士を率いた探検隊を火星に送り、そこで「一時的な研究前哨基地を設置し、 1 年間滞在した」という空想を喜んで続けています。

これは一見すると面白いです。 2つ目では、AIが不可能な質問に答えようとする強迫的な試みの中で、現実の歴史とSFを混ぜ合わせていることが明らかになります。間違いは明らかです。

法律事務所の実験: 弁護士は AI エラーを解決する必要がある

しかし、通常は専門の弁護士やエンジニアが行うタスクを AI に任せたらどうなるでしょうか?次に、非常にコストがかかる可能性のあるエラーを発見するには、専門の弁護士またはエンジニアが必要です。ドイツの大手法律事務所が、GPT4o に基づく OpenAI の AI アシスタントを使用しようとしたとき、結論は厳粛なものでした。AI は、単純な法的文書ですら正確に作成できず、間違いを犯したということです。同様の定義の文言で、標準的な書き方を確立することに失望しました。

「私ならどんな訓練生でも徹底的に叩きのめしていただろう」と、関係した弁護士の一人は匿名を希望して語る。しかし、これらの間違いをそのように認識できるのは専門の弁護士だけです。「これは、AI の使用に関する古典的な問題を示しています。何かを判断できない場合、外側から内側に向​​かって結論を導き出し、間違っている可能性があります。」何も知識を持たずに ChatGPT に契約書を作成させた人は誰でも、もっともらしい、見栄えの良い文書を受け取ることになります。彼はそれが客観的に良くないことだと気づいていないだけなのかもしれない。」

こちらも読んでください

ドイツの AI パイオニアが幻覚問題を解決するアプローチを示す アレフ・アルファ 新しい AI オペレーティング システム Pharia を搭載。 「幻覚が起こるのは、これだけの発展にもかかわらず、AI システムがまだ私たちの世界を真に理解していないからです」と、Aleph Alpha CEO の Jonas Andrulis 氏は説明します。 「これは、物流やコンプライアンスなどの特定の専門分野など、モデルがトレーニングでは知らないトピックに特に当てはまります。市場にある一般的なシステムは、もう少し凝縮されているだけです。」

Aleph Alpha は単語の代わりに音節に依存し、AI に助けを求めさせます

Aleph Alpha の新しい AI システムには 2 つの解決策が考えられます。まず、研究者たちはモデルに後から専門用語を教える方法を発見しました。 「私たちは、定義された制限された語彙の使用にまったく依存する必要のない方法を開発しました」と Andrulis 氏は説明します。

簡単に言うと、Aleph Alpha は、単語ではなく単語の音節を使用してモデルをトレーニングします。これにより、新しい用語をドイツ語に導入することが比較的簡単になります。 「私たちの新しいシステムは、『キャッチ』と呼ばれる機能もサポートしています」と Andrulis 氏は言います。

こちらも読んでください

この機能は、企業の専門家の知識を収集し、AIデータベースに変換し、全社で利用できるようにすることを目的としています。 「アルゴリズムが質問について十分な知識がないと判断した場合、社内の専門家に積極的に助けを求めることができます。AI は専門家の回答を記憶し、その後のすべての質問にそれを使用します。」ただし、この研修は個別企業および特定のテーマに限定されます。

根本的な幻覚問題は解決しません。専門知識は社内に残り、大規模モデルの一般知識には組み込まれません。 Aleph Alpha の顧客にとってはそれで問題ないはずです。

この記事が最初に掲載されたのは Welt.de

#の間違い #Aleph #Alpha #の新しいアプローチでできること

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.