1769487014
2026-01-26 16:01:00

人工知能に使用されるハードウェアについて話すとき、必然的に NVIDIA の話になってしまいますが、AI 専用のハードウェアの設計と製造に携わっているのはカリフォルニアの企業だけではありません。実際、主要なハイパースケーラーは独自の特殊なハードウェアを製造するプログラムを開始しています。この点について、 マイクロソフト は、AI アクセラレータの進化版を発表しました。 マイア 200は、TSMC によって 3nm 製造プロセスで製造されており、同社によれば、Amazon Trainium 3 の最大 4 倍のパフォーマンスを提供します。

Microsoft、AI アクセラレーター Maia 200 を発表

Maia 200 は、Microsoft の AI アクセラレータの Maia シリーズの進化版であり、 マイア100の発売 2023 年に発生しました。Maia プロセッサは 推論専用に設計された したがって、大規模な言語モデルへのアクセスの背後にある「エンジン」として機能します。

新しいMaia 200の統合 216 GBのHBM3eメモリ合計帯域幅 7 TB/秒、272 MB の SRAM メモリと 28 個の 400 Gbps イーサネット コネクタを備え、合計 1.4 TB/秒のネットワーク帯域幅を実現します。この帯域幅は、アクセラレータが 4 つインストールされている各サーバー内およびさまざまなサーバー間で相互に接続するために使用され、最大 6,144 個のアクセラレータのクラスターを構築します。

Microsoft は、新しいアクセラレータは前世代および競合製品の両方よりも大幅に高いパフォーマンスを提供できると主張しています。具体的には、各チップは次のことを実現できます。 FP4 では最大 10 PFLOPS、FP8 では約 5 PFLOPS。比較のために、Amazon の Trainium3 は FP4 と FP8 で 2.5 PFLOPS を提供しますが、Google の TPU v7 は FP8 で 4.6 PFLOPS を提供します。 Maia 200のTDPは880Wです、Trainium3 の 700 W および TPU v7 の 1,000 W に対して。

Maia 200 は、まず米国中部リージョンにデプロイされ、続いて米国西部 3 リージョンにデプロイされ、その後、残りの Azure リージョンにも段階的に導入されます。 Microsoft は、新しいアクセラレータのモデルを最適化するための SDK も提供しました。

注目すべき興味深い事実は、声が 彼らは言いました 最近まで、Maia 200 は Intel 18A プロセスを使用して製造されており、したがってこの製造プロセスの成功事例の 1 つであるはずだと考えられていました。状況は異なり、Microsoft は前世代と同様に TSMC に依存し続けました。

#Microsoft #は #Maia #で #アクセラレータの水準を引き上げます

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.