Microsoftは23日(現地時間)から開発者向けフラッグシップイベント「Microsoft Build」を開催している。23日の午前から、基調講演が始まっており、Microsoft CEO サティヤ・ナデラ氏などの同社幹部が登壇し、同社の製品戦略などに関して説明を行なっている。
それに併せNVIDIAは、Microsoftが提供するAPI「DirectML」に最適化したドライバを提供し、DirectML経由でStable Diffusionを利用する際の性能が2倍になることを明らかにした。
AMD、Intel、Qualcommと協力してWindowsのエッジAI処理能力を向上させる
Microsoftは2022年のBuildで「Hybrid Loop」と呼ばれる仕組みを発表した。Hybrid Loop は「Olive」と呼ばれるツール群と 「ONNX Runtime」というランタイムから構成されており、開発者はプロセッサ(CPU/GPU/NPU)がエッジ/クラウドのどちら側にあっても、AIアプリケーションの性能を最適化可能になる。
Microsoftによれば、OliveとONNX Runtimeを利用すると、Azure ML(Azure Machine Learning)で提供されるクラウドソリューション、そしてエッジ側にあるCPU/GPUと組み合わせてAIアプリケーションを容易に構築可能になる。また、クライアントOSとしてはWindowsだけでなく、Android、iOS、Linuxなどのクロスプラットフォームのアプリケーションを作成できる。
MicrosoftはHybrid LoopやWindows OS上のAI処理能力向上にむけて、AMD、Intel、QualcommというWindowsプラットフォームをサポートする3つのSoCベンダーと協力を続けていく。
既に3社のSoC(ないしは単体NPU)は、Windows 11の標準機能である「Windows Studio Effects」でCPUに負荷をかけずにカメラのAIエフェクトを利用できるようになっており、今後は3社のSoCのNPUをONNX Runtimeへの対応を促進することでWindowsにおけるエッジAI処理性能を向上させていく。
AMDが1月に発表したRyzen 7040シリーズ(開発コードネーム:Phoenix)は、「Ryzen AI」と呼ばれるNPUをSoCに統合している。Ryzen AIは、同社が買収したXillinx由来のFPGAがベースになっており、FPGAのソフトウェアをバージョンアップすることで機能の向上も可能という柔軟なNPUになっている。既にアーリーアクセスが開始されている「Ryzen AI software」と呼ばれる開発キットを利用して、Ryzen AIを利用してAIアプリケーションの高速化が可能になる。
Intelは今年の後半に新しいCPUとなる「Meteor Lake」を次世代Coreとして投入するが、既にIntel自身が明らかにしているようにNPUをCPUに統合する計画だ。このNPUはIntelが以前買収したMovidiusから得たVPUがその由来になっており、既に一部のノートPCにはKeem Bayという単体チップで搭載されているVPUの統合版となる。
MovidiusのVPUは非常に少ない電力で高いAI性能を実現しているのが特徴になっており、Intelが提供するAI開発キット「OpenVino-EP」などを利用してONNX Runtimeの一部として利用できるようになる予定だ。
他社に先駆けていち早くWindows Studio EffectsをサポートしたQualcommは、同社のAI開発キット「Qualcomm AI Engine Direct SDK」をOliveおよびONNX Runtimeに対応させる計画で、Snapdragon 8cx Gen 3などの同社Windows向けSoCをHybird Loopの演算器として活用することが可能になる。
MicrosoftとNVIDIAはWindows PC上でのGPU性能の向上で協力。新ドライバでStable Diffusionの性能が倍に
さらにNVIDIAとはWindows OS上でのGPU活用に関しての協業を行ない、Microsoftが提供するOliveツール群に、PyTorchをONNXに変換する機能を提供し、Oliveで作られたソフトウェアがRTXのTensor Coreを自動的に利用できるようにする。これにより、開発者はPyTorch向けのコード資産を生かしながら、OliveとONNXでTensor Coreをクラウドでも、エッジでも利用することが可能になり、処理能力を大きく引き上げられる。
そうした取り組みの一環として、両社はMicrosoftが提供するWindows上のマシンラーニングAPIとなるDirectMLへのNVIDIA GPUの最適化を進めている。NVIDIAが提供する最新のドライバ(v532.03)とOliveに最適化されたStable Diffusionを活用すると、DirectMLを利用したStable Diffusionの性能を大きく引き上げることが可能になる。NVIDIAが公開した資料によれば、GeForce RTX 4090で性能が約2倍になるという。
今後両社はWindows OS上でGPUの性能を引き上げる協業をさまざま行なっていく計画で、NVIDIAの推論AI開発キットとなるNeMoをWindowsに最適化させ、Oliveに最適化された「Dolly 2.0 large language model」などが提供される計画だ。
コメント