1740462606
2025-02-24 18:43:00
従来のモデルと推論の違いは、2011年の本でノーベル賞を受賞したエコノミストのマイケル・カーネマンが説明した2種類の思考に似ています 速くてゆっくりと考えています:迅速かつ本能的なシステム1思考とより遅い審議システム2思考。
大規模な言語モデルまたはLLMとして知られるChatGptを可能にしたモデルの種類は、大規模なニューラルネットワークを照会することにより、プロンプトに対する瞬間的な応答を生成します。これらの出力は驚くほど賢くて一貫性がありますが、単純な算術を含む段階的な推論を必要とする質問に答えることができない場合があります。
LLMは、それが従わなければならない計画を立てるように指示された場合、審議的推論を模倣することを余儀なくされる可能性があります。ただし、このトリックは常に信頼できるとは限りません。モデルは通常、広範で慎重な計画を必要とする問題を解決するのに苦労しています。 Openai、Google、そして現在人類がすべて使用されています 強化学習として知られる機械学習方法 最新のモデルを取得して、正解を指し示す推論を生成することを学びます。これには、特定の問題を解決するために、人間からの追加のトレーニングデータを収集する必要があります。
ペンは、Claudeの推論モードが、コードの作成と修正、コンピューターの使用、複雑な法的質問への回答など、ビジネスアプリケーションに関する追加データを受け取ったと言います。 「私たちが改善したのは、長い推論を必要とする技術的な主題または主題です」とペンは言います。 「顧客から持っているものは、モデルを実際のワークロードに展開することに大きな関心を持っています。」
人類は、Claude 3.7は、SWEベンチのようないくつかのベンチマークでOpenaiのO1をアウトスコアして、ステップバイステップの推論を必要とするコーディングの問題を解決するのに特に優れていると言います。同社は本日、この種のAIアシストコーディング用に特別に設計されたClaude Codeと呼ばれる新しいツールをリリースしています。
「モデルはすでにコーディングが得意です」とペンは言います。しかし、「追加の考え方は、非常に複雑な計画を必要とする可能性のあるケースにとって良いことです。たとえば、会社の非常に大きなコードベースを見ています。」
#人類は世界初のハイブリッド推論AIモデルを開始します