2月24日(ロイター) – Meta Platforms Inc (META.O) は金曜日、研究者向けに新しい大規模言語モデルをリリースすると発表しました。これは、新しい人工知能システムのコア ソフトウェアであり、大手テック企業が殺到する中、AI の軍拡競争が激化しています。テクノロジーを製品に統合し、投資家を感動させます。
マイクロソフトが支援する OpenAI の ChatGPT の立ち上げで昨年末に始まった AI テクノロジー空間を支配する公然たる戦いは、アルファベット (GOOGL.O) から中国のバイドゥ (9888.HK) に至るまで、テクノロジー業界の重鎮に自社製品の売り込みを促した。 .
Meta の LLaMA (Large Language Model Meta AI の略) は、政府、市民社会、学界に関連する研究者や団体が非商用ライセンスで利用できるようになると、 ブログ.
大規模な言語モデルは、情報を要約してコンテンツを生成するために、膨大な量のテキストをマイニングします。 たとえば、人間が書いたように読める文章で質問に答えることができます。
最新のアップデート
さらに 2 件のストーリーを表示
メタ氏によると、以前の製品よりも「はるかに少ない」計算能力を必要とするこのモデルは、ラテン語とキリル文字を使用する言語に焦点を当てた 20 の言語でトレーニングされています。
DA Davidson のシニア ソフトウェア アナリストである Gil Luria 氏は、次のように述べています。
「Generative AI は、Meta の経験が少ない AI の新しいアプリケーションですが、彼らのビジネスの将来にとって明らかに重要です。」
AI はテクノロジー業界への投資の有望なスポットとして浮上しており、その成長の鈍化により、広範囲にわたるレイオフと実験的な賭けの削減が促進されています。
Meta は、LLaMA は、より多くのパラメータ、またはアルゴリズムが考慮に入れる変数を調べる競合他社よりも優れている可能性があると述べました。
具体的には、130 億のパラメータを持つ LLaMA のバージョンは、ChatGPT が構築されたモデルの最近の前身である GPT-3 よりも優れていると述べています。
650 億のパラメータを持つ LLaMA モデルは、Google の Chinchilla70B や PaLM-540B と「競争力がある」と説明しました。これらのモデルは、Google が Bard チャットを利用した検索を誇示するために使用したモデルよりもさらに大きくなっています。
メタの広報担当者は、トレーニングの安定性を強化したモデルの「よりクリーンな」データと「アーキテクチャの改善」がパフォーマンスの原因であると考えています。
Meta は昨年 5 月に大規模な言語モデル OPT-175B をリリースしました。これも研究者向けで、チャットボット BlenderBot の新しいイテレーションの基礎を形成しました。
その後、ギャラクティカと呼ばれるモデルを導入しました。このモデルは科学記事を書いたり、数学の問題を解いたりすることができましたが、権威あるように聞こえる誤った応答が生成された後、すぐにデモを取り下げました。
バンガロールの Yuvraj Malik と Eva Mathews、ニューヨークの Katie Paul による報告。 Shailesh Kuber と Grant McCool による編集
私たちの基準: トムソン・ロイターの信頼原則。