世界

人間とLLMは「加算バイアス」を示し、減算よりも追加のステップを選択することがよくあります

2月 16, 2026 / nipponese

1771217343
2026-02-15 18:00:00

空間 (対称) タスクで使用されるバリエーションの概要。クレジット: Uhler 他(コミュニケーション心理学、2026)。

人間は意思決定や判断を下すときに、認知バイアスとして知られる一般的な「罠」に陥ることがあります。認知バイアスは本質的に、情報を特定の方法で処理する傾向、または体系的なパターンに従う傾向です。広く文書化されている認知バイアスの 1 つは、いわゆる加算バイアスです。これは、たとえ引き算の方が簡単で効率的であっても、人々は要素を削除するのではなく追加することによって問題を解決することを好む傾向です。この一例としては、たとえ不必要なセクションを削除した方が効果的であっても、エッセイやレポートを改善するために段落や説明を追加することが挙げられます。

テュービンゲン大学とウィセンスメディア・ライプニッツ研究所の研究者らは最近、人工知能(AI)エージェント、特にChatGPTの機能を支える計算モデルもユーザーの質問に答える際にこの傾向を示すかどうかを調査することを目的とした研究を実施した。彼らの発見は、 コミュニケーション心理学、これらのモデルができることを示唆しています 加算バイアスを継承する 彼らが訓練された人間が書いたテキストから。

「生成型人工知能、特に大規模言語モデル(LLM)は人間の意思決定にますます影響を及ぼしており、これらのシステムで認知バイアスがどのように再現または増幅されるかを理解することが不可欠になっている」とリディア・ウーラー氏、ヴェレナ・ジョーダン氏らは論文で述べている。 「この研究は、人間の『足し算バイアス』、つまり引き算的な問題解決戦略よりも足し算的な問題解決戦略を好む傾向の証拠に基づいて、空間的および言語的課題において人間を GPT-4 および GPT-4o と比較しました。」

人間と LLM はどちらも、要素を削除するのではなく追加することによって問題を解決することが一般的です。

言語 (要約) タスクで使用されるバリエーションの概要。クレジット: Uhler 他(コミュニケーション心理学、2026)。

人間とLLMの「加算バイアス」を研究する

Uhler、Jordan らは、2 つの異なる LLM、つまり GPT-4 と GPT-4o に対する人間の参加者の反応を比較する 2 つの研究を実施しました。最初の研究の一環として、彼らは588人の人間参加者を対象とした4つの実験を実施し、彼らの反応をGPT-4による680の反応と比較した。一方、彼らの2番目の研究には、1080のGPT-4o出力に対する751人の人間の参加者の反応を比較する2つの実験が含まれていました。

人間の参加者と LLM は、空間タスクと言語タスクという 2 つの異なるタイプのタスクについてテストされました。空間的タスクでは、特定の方法で形状や構造を配置する必要がありますが、言語的タスクでは、回答者は一連の指示に従って特定のテキストを選択または生成する必要があります。

一部の実験では、情報を追加することで回答者がより効率的に課題を解決できるようになりましたが、他の実験では情報を削除することが望ましい場合もありました。さらに、タスクの指示は、より中立的または肯定的な言語を使用して書かれていました。

「我々は(a) ソリューションの効率と(b) 命令の価数を操作した」と著者らは書いている。 「どちらの研究でも、一般的な加算バイアスが現れ、人間よりもLLMの方が顕著でした。」

Uhler、Jordan らは、人間の参加者と調査した LLM の両方が追加バイアスを示していることを発見しました。ただし、このバイアスは人間ではそれほど顕著ではなく、情報を差し引くことが問題に取り組むためのより効率的な戦略であることが明らかなタスクの LLM でより顕著でした。

「(両方が同じ効率だった場合に比べて)足し算よりも引き算の方が効率的だった場合、人間は加算的な選択を減らしたが、GPT-4の出力は逆のパターンを示した」とUhler氏、Jordan氏らは書いている。

「GPT-4oの出力は、言語タスクにおける人間の出力と一致しましたが、空間タスクでは効率への効果は示されませんでした。空間タスクでは、どちらのエージェントでも指示価数は統計的有意性に達しませんでした。言語タスクでは、正の価数(中立価数と比較して)は両方のGPTモデルでより多くの相加的出力をもたらしましたが、人間の場合は研究2のみでした。」

AIと人間の偏見についての理解を深める

この研究者チームが集めた結果は、LLMは通常、人間が書いた大量のテキストで訓練されるが、空間タスクと言語タスクの両方で加法バイアスを示す傾向があることを示唆している。場合によっては、これらのモデルはこのバイアスを強化し、問題を解決するのに明らかに非効率な方法である場合でも、より多くの情報を追加する傾向があることさえあります。

「これらの調査結果は、 加算バイアス 「このことは、人間とLLMの両方における加算バイアスの根底にある認知的およびデータ駆動型のメカニズムに関するさらなる理論的および経験的研究の重要性を強調している。」と著者らは書いている。

ウーラー、ジョーダン、および彼らの同僚によって収集された洞察は、人間とLLMの両方が示す他のバイアスと、それらの潜在的な影響を明らかにすることを目的としたさらなる研究への道を間もなく開く可能性があります。これらの取り組みは、より信頼性の高い AI エージェントの開発を導く可能性があると同時に、人間の意思決定に悪影響を与える一般的なパターンをより深く理解するのにも役立つ可能性があります。

私たちの著者があなたのために書きました イングリッド・ファデリ、編集者 ギャビー・クラーク、そして事実確認され、レビューされました ロバート・イーガン—この記事は人間による慎重な作業の結果です。私たちは、独立した科学ジャーナリズムを存続させるために、あなたのような読者に依存しています。この報告が重要である場合は、次のことを検討してください。 寄付 (特に毎月)。を取得します。 広告なし 感謝の気持ちを込めたアカウントです。

詳細情報:
Lydia Uhler et al、ヒトにおける加法的および減法的解法戦略に対する解法効率と指導価数の影響、GPT-4、および GPT-4o、 コミュニケーション心理学 (2026年)。 DOI: 10.1038/s44271-026-00403-0

© 2026 サイエンス X ネットワーク

引用: なぜ AI は答えを複雑にしすぎるのか: 人間と LLM は「加算バイアス」を示し、減算よりも追加のステップを選択することが多い (2026 年 2 月 15 日) https://techxplore.com/news/2026-02-ai-overcomplicate-humans-llms-addition.html より 2026 年 2 月 15 日取得

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なしにいかなる部分も複製することはできません。コンテンツは情報提供のみを目的として提供されています。

#人間とLLMは加算バイアスを示し減算よりも追加のステップを選択することがよくあります