1766922907
2025-08-28 21:09:00

エヌビディア は昨日の決算発表と電話会見で、2026年度第2四半期の収益が467億ドルであると報告し、データセンターの収益は前年比56%増の411億ドルに達したと報告した。同社は第3四半期のガイダンスも発表し、四半期の売上高が540億ドルになると予測した。

これらの確認された決算報告の数字の背後には、カスタムの特定用途向け集積回路 (ASIC) がどのようにして Nvidia の主要セグメントで定着し、今後の四半期でその成長に挑戦するかという、より複雑なストーリーが隠されています。

バンク・オブ・アメリカの Vivek Arya 氏は、Nvidia の社長兼 CEO である Jensen Huang に、ASIC が Nvidia GPU から市場シェアを奪うシナリオがあるかどうか尋ねました。 ASIC は、Nvidia に対するパフォーマンスとコストの優位性を確立し続けています。 ブロードコム プロジェクトの 55% ~ AI による収益の 60% の増加 来年。

黄氏は決算会見で強く反発した。同氏は、AIインフラストラクチャの構築は「非常に困難」であり、ほとんどのASICプロジェクトが本番環境に到達できないことを強調した。それはもっともな指摘だが、同社にはブロードコムという競合他社がおり、同社のAI収益は着実に増加しており、最高水準に近づいている。 年間稼働率 200 億ドル。市場の競争の細分化が進んでいることをさらに強調しているのは、 グーグルメタ そして マイクロソフト すべてがカスタム シリコンを大規模に展開します。市場は発言した。

ASIC はリアルタイムで競争環境を再定義しています

Nvidia は、新しい ASIC プロバイダーと十分に競合できる能力を持っています。逆風に直面しているのは、ASIC の競合他社が自社のユースケース、パフォーマンス主張、コスト面の組み合わせをどれだけ効果的に位置づけているかということです。また、Broadcom はこの競争面でリードしており、必要なエコシステムのロックインのレベルに関して差別化を図ろうとしています。

次の表は、Nvidia Blackwell と主な競合他社を比較しています。実際の結果は、特定のワークロードと展開構成によって大きく異なります。

主な使用例

トレーニング、推論、生成 AI

ハイパースケールのトレーニングと推論

AWS に重点を置いたトレーニングと推論

トレーニング、推論、ハイブリッド クラウドの導入

AI クラスター ネットワーキング

パフォーマンスに関する主張

ホッパーと比較して最大 50 倍の改善*

TPU v6 と v5 の比較で 67% 向上*

低電力でも同等の GPU パフォーマンス*

前世代と比較して 2 ~ 4 倍の価格パフォーマンス*

イーサネット上の InfiniBand パリティ*

コストポジション

プレミアム価格、包括的なエコシステム

Google ごとの GPU と比較して大幅な節約*

AWS マーケティングに基づく積極的な価格設定*

予算の代替ポジショニング*

ベンダーごとのネットワーク TCO の削減*

生態系のロックイン

中程度 (CUDA、独自仕様)

高 (Google Cloud、TensorFlow/JAX)

高 (AWS、独自の Neuron SDK)

中(オープンスタックをサポート)

低 (イーサネットベースの標準)

可用性

ユニバーサル (クラウド、OEM)

Google Cloud 限定

AWS 限定

複数のクラウドとオンプレミス

Broadcom ダイレクト、OEM インテグレーター

戦略的魅力

実証済みの規模、幅広いサポート

クラウドワークロードの最適化

AWS 統合の利点

マルチクラウドの柔軟性

簡素化されたネットワーキング

市場での地位

マージンプレッシャーを伴うリーダーシップ

特定のワークロードでの増加

AWS内での拡大

新たな代替案

インフラストラクチャイネーブラー

*ワットあたりのパフォーマンスの向上とコスト削減は、特定のワークロード特性、モデル タイプ、導入構成、ベンダー テストの前提条件によって異なります。実際の結果はユースケースによって大きく異なります。

ハイパースケーラーは独自の道を構築し続ける

すべての主要なクラウド プロバイダーはカスタム シリコンを採用して、ASIC をゼロから定義することによるパフォーマンス、コスト、エコシステムの規模、および広範な DevOps の利点を獲得しています。 Google は、Broadcom とのパートナーシップを通じて TPU v6 を運用環境で運用しています。メタは、ランキングと推奨に特化した MTIA チップを構築しました。 Microsoft は、持続可能な AI ワークロードのために Project Maia を開発しています。

アマゾン ウェブ サービスでは、トレーニングには Trainium を、推論には Inferentia を使用することをお客様に推奨しています。

それに加えて、ByteDance は地政学的な緊張にもかかわらず、カスタム シリコン上で TikTok のレコメンデーションを実行しています。これは、GPU ではなく ASIC 上で毎日実行される数十億の推論リクエストです。

CFOのコレット・クレス氏は電話会談で競争の現実を認めた。同氏は中国の収益に言及し、データセンター収益に占める中国の収益の割合は一桁台前半まで低下していると述べた。現在の第 3 四半期ガイダンスでは、2020 年下半期の中国への出荷は完全に除外されています。中国の広範な機会に関する黄氏の発言は決算発表を前向きな方向に導こうとしたが、株式アナリストがすべてを評価しているわけではないことは明らかだった。

一般的な論調と見方は、輸出規制が Nvidia にとって 2 番目に重要な成長機会であると考えられる市場において継続的な不確実性を生み出しているというものです。フアン氏は、全AI研究者の50%が中国におり、同市場へのサービス提供に全力で取り組んでいると述べた。

Nvidia のプラットフォームの利点は最大の強みの 1 つです

Huang 氏は決算会見で Nvidia の統合アプローチについて正当な主張を行いました。最新のAIを構築するには6種類の異なるチップを連携させる必要があり、その複雑さが競合他社が対抗するのに苦労する障壁を生み出すと同氏は主張した。 Nvidia はもはや GPU を出荷するだけではないことを決算会見で何度も強調しました。同社は世界規模で拡張できる完全な AI インフラストラクチャを提供していると同氏は強調し、決算発表の中核メッセージとして AI インフラストラクチャに立ち返ると、それを 6 回引用しました。

このプラットフォームは遍在しているため、クラウド ハイパースケーラーのほぼすべての DevOps サイクルでサポートされるデフォルト構成となっています。 Nvidia は AWS、Azure、Google Cloud 上で実行されます。 PyTorch と TensorFlow もデフォルトで CUDA 用に最適化されます。 Meta が新しい Llama モデルをリリースするとき、または Google が Gemini をアップデートするとき、彼らは最初に Nvidia ハードウェアをターゲットにします。なぜなら、Nvidia ハードウェアはすでに何百万もの開発者が働いているからです。生態系は独自の重力を生み出します。

ネットワーク ビジネスは、AI インフラストラクチャ戦略を検証します。第2四半期の売上高は73億ドルに達し、前年同期比98%増加しました。 NVリンク 従来のネットワークでは実現できない速度で GPU を接続します。 Huang 氏は通話中に実際の経済状況を明らかにしました。NVIDIA は、典型的なギガワット AI 工場の予算の約 35% を占めています。

「50 ギガワットからプラスマイナス 10%、たとえば 600 億ドルまでの規模の AI 工場のうち、当社はそのプラスマイナス約 35% を占めています。…そしてもちろん、そのために得られるのは GPU ではありません。… 私たちは AI インフラストラクチャ企業に向けて本格的に移行しました」と Huang 氏は述べています。

単なるチップの販売ではありません。これはアーキテクチャを所有し、NVLink ラックスケール システムや Spectrum X Ethernet などの最先端のネットワーキングとコンピューティング プラットフォームを活用した AI 構築全体の重要な部分を占めています。

Nvidia が好調な業績を報告し続ける中、市場力学は急速に変化している

Nvidia の売上高の伸びは、前年比 3 桁から 56% に減速しました。これは依然として素晴らしいことですが、会社の成長の軌道が変わりつつあることは明らかです。競争が企業の成長に影響を及ぼし始めており、この四半期には最も顕著な影響が見られます。

特に、世界的な AI 競争における中国の戦略的役割は、アナリストからの厳しい注目を集めました。ジョー・ムーアとして モルガン・スタンレー 電話会議の後半で質問されたフアン氏は、2025年の中国のAIインフラストラクチャの機会は500億ドルと見積もった。同氏は、その規模(「世界第2位のコンピューティング市場」、「世界のAI研究者の約50%」が参加)についての楽観的な見方と、規制上の摩擦についての現実的な見方の両方を伝えた。

Nvidia の軌道を形作る 3 番目の重要な力は、AI インフラストラクチャ自体の複雑さとコストの拡大です。ハイパースケーラーや Nvidia の長年の顧客が次世代の構築に数十億ドルを投資するにつれ、ネットワークの需要、コンピューティング、エネルギー効率が高まっています。

Huang 氏のコメントは、Blackwell のような新しいプラットフォームや、NVLink、InfiniBand、Spectrum XGS ネットワーキングのイノベーションによって「桁違いのスピードアップ」が、顧客のデータセンター資本の経済的利益を再定義する様子を強調しました。一方、サプライ チェーンのプレッシャーと絶え間ない技術革新の必要性により、NVIDIA は優先アーキテクチャ プロバイダーとしての地位を確立し続けるために、絶え間ないペースと適応性を維持する必要があります。

Nvidia の今後の道は明確です

Nvidia が第 3 四半期に 540 億ドルというガイダンスを発表したことは、同社の DNA の中核部分がこれまでと同様に強力であることを示しています。 Rubin アーキテクチャを開発しながら Blackwell を継続的に改善していることは、Blackwell の革新能力がかつてないほど強力であることの証拠です。

問題は、彼らが直面している新しいタイプの革新的な課題が、過去に示したのと同じレベルの開発強度で挑戦し、勝利できるものであるかどうかです。 VentureBeat は、Broadcom が今後も新しいハイパースケーラーとのパートナーシップを積極的に追求し、推論ワークロードを目的とした特定の最適化に向けたロードマップを強化することを期待しています。 ASIC の競合各社は、競争の激しさを新たなレベルに引き上げ、スイッチング コストの上昇を伴う設計上の勝利を得ようとしています。

ファン氏は決算会見を終え、「新たな産業革命が始まった。AI競争は始まっている」と賭けを認めた。この競争には、NVIDIA がわずか 2 年前に解雇した強力な競合他社も含まれています。 Broadcom、Google、Amazon などがカスタム シリコンに数十億ドルを投資しています。彼らはもう実験をしていません。彼らは大規模に出荷しています。

Nvidia は、CUDA の支配が始まって以来最も強力な競争に直面しています。同社の四半期の467億ドルはその強さを証明しています。しかし、カスタム シリコンの勢いは状況が変わったことを示唆しています。次の章では、Nvidia プラットフォームの利点が ASIC の経済性を上回るかどうかをテストします。 VentureBeatは、テクノロジーバイヤーがファンドマネージャーの道をたどることを期待しており、競争の激化により市場の細分化が進む中、NVIDIAが収益性の高い顧客ベースを維持することと、ASICの競合他社が設計の勝利を確保することの両方に賭けている。

#Nvidia #の第 #四半期の #億ドルはプラットフォームであることを証明しましたが次の戦いは推論に関する #ASIC #経済学です

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.