
11月3日、AWSとOpenAIが複数年の戦略的パートナーシップを発表しました。契約規模は総額380億ドル相当で、即日、OpenAIの主要AIワークロードがAWS上で稼働を開始。AWSはAmazon EC2 UltraServersで“数十万枚規模”のNVIDIA GPU(GB200/GB300)を束ね、必要に応じて“数千万CPU”までスケールさせる構成を提供します。両社は2026年末までに計算能力の主要配備を完了し、27年以降の増強も視野に入れるとしています。
AWS側の設計は、同一ネットワーク上に密結合したUltraServersを重ね、学習からChatGPTの推論、次世代モデルの訓練まで低遅延で回すことを狙います。サム・アルトマン氏は「フロンティアAIをスケールさせる鍵は巨大で信頼できる計算」と述べ、AWSのマット・ガーマンCEOも“高度なAI需要の背骨になる”と強調しました。
この提携は、10月末に結ばれたMicrosoft×OpenAIの「新章」契約とも地続きです。そこで“サードパーティと共同開発するAPI製品はAzure独占、非API製品は他クラウドでも提供可能”という整理が示され、OpenAIが用途に応じてクラウドを使い分ける余地が広がりました。今回のAWS契約は、その枠組みの上で“計算の複線化”を実際に前へ進める一手と言えます。
市場面では、“AWS×OpenAIで380億ドル”という規模感と、GB200/GB300を束ねる新クラスタの具体像が報じられ、株式市場でもポジティブな反応が相次ぎました。大手通信社も、Azure中心だったOpenAIの計算調達が再編後に広がった文脈を伝えています。
実務の延長線では、Bedrock経由でOpenAIのオープンウェイト(gpt-oss系)を使う動きも進んでおり、企業は“モデルの使い分け”と“計算の選び方”を同時に設計する段階に入っています。エージェント実装や長鎖のツール実行のような重い推論にも、クラスタ規模の余裕が効いてくるでしょう。
総じて、今回の発表は“APIの接続性はAzureを軸に維持しつつ、計算の底座標はAWSでも厚くする”という、OpenAIの新しい調達スタイルを象徴します。供給逼迫が続くなかで、UltraServers×GB200/GB300の大規模クラスタをもう一筋確保することは、来年以降のモデル更新やエージェント運用の安定度を高める現実的な打ち手です。