マイクロソフトは今週、同社のデータセンターの1つに自社製AIチップの最初の製品を導入し、今後数カ月以内にさらに多くのチップを導入する予定だ。
Maia 200と名付けられたこのチップは、Microsoftが「AI推論のパワーハウス」と呼ぶものとなるように設計されており、実稼働環境でAIモデルを実行するという計算集約型タスク向けに最適化されていることを意味する。同社は、Maia の優れた処理速度の仕様を発表し、Amazon の最新 Trennium チップや Google の最新 Tensor Processing Unit (TPU) よりも優れていると述べました。
クラウド大手各社は、NVIDIA から最新かつ最高の製品を入手するのが困難で費用もかかるため、独自の AI チップ設計に目を向けています。供給危機は収まる気配がありません。
しかし、マイクロソフト社の最高経営責任者(CEO)サティア・ナデラ氏は、自社の最先端の高性能チップを保有しているにもかかわらず、同社は今後も他社製チップを購入するつもりだと述べた。
「私たちはNvidiaおよびAMDと素晴らしいパートナーシップを築いています。彼らは革新を進めています。私たちも革新を続けています」と同氏は語った。 「多くの人は、誰が先にいるかだけを話していると思います。覚えておいてください、これから起こることにおいては、自分が先を行かなければなりません。」
同氏はさらに、「垂直統合ができるからといって、垂直統合だけを意味するわけではない」と付け加えた。これは、他のベンダーの製品を使用せずに、上から下まで独自のシステムを構築することを意味する。
前述したように、Maia 200はマイクロソフト自身のいわゆるスーパーインテリジェンスチーム、つまりソフトウェア巨人独自のフロンティアモデルを構築するAI専門家によって使用されることになる。元Google DeepMindの共同創設者で現在チームを率いるムスタファ・スレイマン氏はこう語る。 Microsoft は、OpenAI、Anthropic、その他のモデル メーカーへの依存を減らすために、独自のモデルの開発に取り組む日が来るかもしれません。
テッククランチイベント
マサチューセッツ州ボストン
|
2026 年 6 月 23 日
同社によれば、Maia 200チップはMicrosoftのAzureクラウドプラットフォーム上で動作するOpenAIモデルもサポートするという。しかし、誰がどう見ても、最先端の AI ハードウェアへのアクセスを保護することは、料金を支払っている顧客と社内チームの両方にとって依然として課題です。
そのため、スレイマン氏は X への投稿で、チームが初めて成功を収めたというニュースを明らかに喜んで共有しました。このチップが発売されたとき、彼は「今日は大事な日だ」と書いた。 「私たちのスーパーインテリジェンスチームは、フロンティアAIモデルを開発する際にMaia 200を初めて使用することになります。」