フアン氏はGTC2023での基調講演で、次のように述べている。
- Advertisement -
フアン氏:ワープドライブエンジンはアクセラレーテッドコンピューティングであり、エネルギー源はAIです。ジェネレーティブ AI の優れた機能により、企業は自社の製品とビジネスモデルを再考しなければならないという危機感を抱くようになりました。
GTC2023の軸となる包括的なプレゼンテーションで、フアン氏は、NVIDIAとそのパートナーがトレーニングから最先端のAIサービスの展開まで、あらゆるものをどのように提供しているかを説明。さらに、新たなブレイクスルーを可能にする新しい半導体とソフトウェアライブラリについても発表し、これらのイノベーションを世界規模で機能させるために競争しているスタートアップや企業向けのシステムとサービスのフルセットも明らかにした。
フアン氏は、講演の最後にこのエコシステムが機能している例をいくつか示した。さらに、NVIDIAとMicrosoftが、数億人ものMicrosoft 365とAzureのユーザーを超現実的な仮想世界を構築、および運用するためのプラットフォームに接続することを発表した。
- Advertisement -
Amazonが高度なシミュレーション機能を使用して、新しい自律型倉庫ロボットをトレーニングする方法も紹介。ChatGPTなど新世代のジェネレーティブAIサービスの台頭にも触れたという。
さらに、NVIDIAのイノベーションの基本的な性質を強調し、ASML、TSMC、Synopsisと共に、NVIDIAのコンピュテーショナルリソグラフィのブレイクスルーが、新世代の効率的で強力な2nm半導体の実現にいかに役立つかを詳しく説明した。
フアン氏によると、アクセラレーテッドコンピューティングとAIの到来は、ムーアの法則が減速し、業界が持続可能性、ジェネレーティブAI、デジタル化という強力なダイナミクスに取り組む中で、ちょうど間に合うようにやってきた、という。
フアン氏:各種産業の企業は、デジタル化、そしてソフトウェアドリブンのテクノロジ企業への再編成を競っています。破壊者になるためで、破壊される方にならないためです。
アクセラレーションにより、企業はこれらの課題に対応できるという。
- Advertisement -
フアン氏:アクセラレーションは、パワーを取り戻し、持続可能性とネットゼロを達成するための最良の方法です。
AIにおけるiPhoneの瞬間
NVIDIAのテクノロジはAIの基盤であり、フアン氏はジェネレーティブAI革命の最初期にNVIDIAがどのように存在したかを語った。2016年、彼はOpenAIに最初のNVIDIA DGX AIスーパーコンピューターを手渡した。これはChatGPTを強化する大規模言語モデル(LLM)のブレイクスルーを支えるエンジンとなったという。
昨年末に発表されたChatGPTは瞬時に主流となり、1億人以上のユーザーを引き付け、史上最も急速に成長したアプリケーションになった。フアン氏は「私たちは今、AIにおけるiPhoneの瞬間にいます」と話した。
NVIDIA DGX スーパーコンピューターは、もともとAI研究の機器として使用されていたが、現在、世界中の企業で24時間36日稼動しており、データを改良してAIを処理しているという。Fortune 100の企業の半数がDGX AIスーパーコンピューターを導入している。
フアン氏:DGXスーパーコンピューターは、最新のAI工場です。
データセンター向けNVIDIA H100、Grace Hopper、Grace
ChatGPTのようなLLMの展開は、重要な新しい推論ワークロードである、と言い、フアン氏はChatGPTのような大規模言語モデルの推論用に、デュアル GPU NVLinkを備えた新しいGPU、H100 NVLを発表した。
NVIDIAのHopperアーキテクチャをベースとしたH100は、ChatGPTを強化するGPTモデルなどのモデルを処理するように設計されたTransformer Engineを搭載。GPT-3の処理をHGX A100と比較した場合、デュアル GPU NVLinkを備えた4組のH100を備えた標準サーバーは最大10倍高速だという。
フアン氏:H100は、大規模言語モデルの処理コストを桁違いに削減できます。
一方、過去10年間で、クラウドコンピューティングは年間20%成長し、1兆ドルの産業になったとも述べている。NVIDIAは、AIワークロードがGPUで高速化されるAIおよびクラウドファーストの世界に向けてGrace CPUを設計。Graceは現在サンプルが提供されている。
NVIDIAの新しいスーパーチップであるGrace Hopperは、Grace CPUとHopper GPUを毎秒900GBのコヒーレントな高速チップ間インターフェイスで接続する。Grace Hopperは、レコメンダーシステム用のAIデータベースや大規模言語モデルなどの巨大なデータセットを処理するのに理想的だという。
フアン氏:顧客は、数桁大きいAIデータベースを構築したいと考えています。Grace Hopperは理想的なエンジンです。
AIインフラストラクチャの青写真であるDGX
DGXの最新バージョンは、8基のNVIDIA H100 GPUが相互接続されており、1つの巨大なGPUとして機能する。
フアン氏:NVIDIA DGX H100は、世界中でAIインフラストラクチャを構築している顧客にとっての青写真です。
NVIDIA DGX H100が現在量産されており、H100 AIスーパーコンピューターはすでに稼働を開始している。
Oracle Cloud Infrastructureは、H100 GPUを搭載した新しいOCI Computeベアメタル GPUインスタンスの限定提供を発表。さらに、Amazon Web Servicesは、相互接続された H100 GPUを最大2万基まで拡張できるP5 インスタンスのEC2 UltraClustersを発表した。
これは、Microsoft Azureが先週発表したH100 仮想マシン ND H100 v5のプライベートプレビューの発表に続くものだ。
Metaは現在、H100を搭載したGrand Teton AIスーパーコンピューターをAIの生産および研究チーム向けに社内で展開しているという。また、OpenAIはAzureスーパーコンピューターでH100を使用して、継続的なAI研究を強化している。
H100を提供している他のパートナーにはCirrascaleとCoreWeaveがあり、どちらも一般提供を発表した。さらに、Google Cloud、Lambda、PaperspaceおよびVultがH100を提供する予定だという。
さらに、NVIDIA H100 GPUを搭載したサーバーとシステムは、Atos、Cisco、Dell Technologies、GIGABYTE、Hewlett Packard Enterprise、Lenovo、Supermicroなどの主要なサーバーメーカーから入手可能。
DGX Cloud:すべての企業にAIを即座に導入
さらに、新製品の構築やAI戦略の開発を急ぐスタートアップや企業にDGXの機能を迅速に提供するために、NVIDIA DGX Cloudを発表した。Microsoft Azure、Google Cloud、および Oracle Cloud Infrastructureとのパートナーシップを通じて、NVIDIA DGX AI スーパーコンピューターを「ブラウザーからあらゆる企業に」提供することができるという。
DGX Cloudは、AIのエンドツーエンドの開発と展開のための世界最先端のアクセラレーションソフトウェアスイートであるNVIDIA AI Enterpriseを実行できるように最適化されているという。
フアン氏:DGX Cloudは、最高のNVIDIA AIと、世界をリードする最高のクラウドサービスプロバイダーを顧客に提供します。
NVIDIAは、DGX Cloudインフラストラクチャをホストする主要なクラウドサービスプロバイダーと提携。Microsoft Azureは次の四半期にDGX Cloudのホストを開始予定で、サービスはまもなくGoogle Cloudなどに拡大されるという。
同パートナーシップにより、NVIDIAのエコシステムがクラウドサービスプロバイダーにもたらされると同時に、NVIDIAの規模とリーチが拡大されるとしている。企業は月単位でDGX Cloudクラスタをレンタルできるため、大規模なマルチノードトレーニングワークロードの開発を迅速かつ簡単にスケールできるという。
ジェネレーティブAIの拡大
ジェネレーティブAIを利用したいすべての人々の仕事を加速するために「NVIDIA AI Foundations」を発表した。NVIDIA AI Foundationsは、カスタムのLLMとジェネレーティブAIを独自のデータでトレーニングし、ドメイン固有のタスクのために構築、改良、運用する必要があるユーザー向けの一連のクラウドサービスだという。
AI Foundationsサービスには、カスタム言語のtext-to-textジェネレーティブモデルを構築するためのNVIDIA NeMo、ライセンスされたコンテンツまたは独自のコンテンツでトレーニングされたカスタムモデルを構築したい顧客向けのビジュアル言語モデル作成サービスであるPicasso、そして2兆ドル規模の創薬業界の研究者を支援するBioNeMoが含まれる。
AdobeはNVIDIAと提携して、未来のクリエイティブのための一連の次世代AI機能を構築しているという。Getty Imagesは、NVIDIAと協力して、責任あるジェネレーティブなtext-to-imageおよびtext-to-videoの基盤モデルをトレーニングしている。
また、ShutterstockはNVIDIAと協力して、詳細な3Dアセットの作成を簡素化するために、ジェネレーティブなtext-to-3Dの基盤モデルをトレーニングしている。
医療の進歩を加速
NVIDIAによると、Amgenが BioNeMoで創薬サービスを加速しているという。ちなみにAlchemab Therapeutics、AstraZeneca、Evozyne、Innophore、InsilicoはすべてBioNemoの早期アクセスユーザーだという。
フアン氏は、BioNeMoは研究者が独自のデータを使用してカスタムモデルを作成、ファインチューン、および提供するのに役立つとした。
NVIDIAとヘルスケアテクノロジプロバイダーであるMedtronicは、ソフトウェアデファインドの医療機器向けのAIプラットフォームを構築するために提携。この提携により、手術のナビゲーションからロボット支援手術まで、Medtronicシステムの共通プラットフォームが構築されるという。
そして、Medtronicは、結腸癌の早期発見のためのAIを備えた同社のGI Geniusシステムが、リアルタイムセンサー処理システム用のソフトウェアライブラリであるNVIDIA Holoscan上に構築されており、今年末頃に出荷されることも発表した。
フアン氏:世界の2,500億ドル規模の医療機器市場が変革しています。
ジェネレーティブAIアプリケーションの迅速な展開
企業がジェネレーティブAIモデルを展開するのを支援するために、フアン氏はAIビデオ、画像生成、LLM展開、レコメンダー推論のための推論プラットフォームを用意した。これらは、NVIDIAのフルスタックの推論ソフトウェアを、今回新たに発表されたNVIDIA L4 Tensor コア GPUおよびNVIDIA H100 NVL GPUを含む最新のNVIDIA Ada、Hopper、およびGrace Hopperプロセッサと組み合わせるのだという。
- AIビデオ用のNVIDIA L4は、CPUの120倍のAIビデオ性能を提供し、エネルギー効率を99%向上させる
- 画像生成用のNVIDIA L40は、グラフィックスおよびAI対応の2D、ビデオ、および3D画像生成用に最適化されている
- 大規模言語モデル展開用のNVIDIA H100 NVLは、ChatGPTのような大規模なLLMを大規模に展開するのに理想的
- レコメンダーモデル用のNVIDIA Grace Hopperは、グラフレコメンダーモデル、ベクトルデータベース、およびグラフニューラルネットワークに最適
Google Cloudは、プライベートプレビューで利用できるようになった新しいG2仮想マシンの立ち上げにより、顧客にL4を提供する最初のクラウドサービスプロバイダーとなった。Googleはまた、L4をVertex AIモデルストアに統合している。
MicrosoftとNVIDIAが「数億人」にOmniverseをもたらす
フアン氏は、NVIDIAがMicrosoftと提携して、フルマネージドのクラウドサービスであるNVIDIA Omniverse Cloudを世界中の業界に提供すると発表した。これは、シミュレーションとコラボレーション機能を企業向けに高速化する2つ目のクラウドサービスとなる。
フアン氏:MicrosoftとNVIDIAは、数億ものMicrosoft 365とAzureユーザーにOmniverseをもたらします。
さらに、NVIDIA Omniverse向けに最適化されたNVIDIA RTX Ada世代GPUとIntelの最新CPUを搭載した新しいNVIDIA OVXサーバーと新世代のワークステーションも発表した。
3Dデザインコラボレーションとデジタルツインシミュレーション用に構築されたNVIDIAのオープンプラットフォームであるOmniverseの機能を示すために、フアン氏は、Omniverse上に構築されたNVIDIAのロボティクスシミュレーションおよび合成生成プラットフォームであるNVIDIA Isaac Simが、忠実なデジタルツインによってAmazonが時間と予算を節約するのにどのように役立っているかを示すビデオを共有したという。
そこでは、Amazonで最初の完全自律型倉庫ロボットであるProteusが、人間や他のロボットとともに広い倉庫内で製品が積まれたカゴ台車をある場所から別の場所に移動する様子が示された。
3兆ドル規模の自動車産業のデジタル化
Omniverseの範囲と能力の規模を説明しながら、フアン氏は3兆ドル規模の自動車産業のデジタル化におけるOmniverseの役割を掘り下げた。フアン氏によると、2030年までに、自動車メーカーは300の工場を建設して2億台の電気自動車を製造し、バッテリーメーカーはさらに100のメガファクトリーを建設するという。
フアン氏:デジタル化は、業界の効率、生産性、スピードを向上させます。
業界全体でのOmniverseの採用に触れながら、フアン氏は、「LotusがOmniverseを使用して仮想的に溶接ステーションを組み立てている」と述べた。メルセデス・ベンツはOmniverseを使用して、新しいモデルの組立ラインを構築、最適化を計画。RimacとLucid Motorsは、Omniverseを使用して、自社の車を忠実に表現する実際の設計データからデジタルストアを構築しているという。
BMWはIdealworksと協力して、OmniverseでIsaac Simを使用して合成データとシナリオを生成し、工場のロボットをトレーニングしている。また、BMWはOmniverseを使用して世界中の工場の運用計画を立てており、新たな電気自動車工場が物理的にオープンする2年前にOmniverse内で工場の完全なデジタルツインを建設中だとしている。
また、NVIDIA、新エネルギー車のメーカーであるBYDが、NVIDIA DRIVE Orin集中型コンピューティングプラットフォームの使用をより広範なNEVに拡大することを発表した。
半導体のブレイクスルーを加速
現在の半導体製造プロセスが物理学の限界に近づく中で、ASML、TSMC、Synopsisなどの半導体業界のリーダーが新世代のチップの設計と製造を加速できるようにするため、「NVIDIA cuLitho」を発表。これは、アクセラレーテッドコンピューティングをコンピュテーショナルリソグラフィの分野にもたらすブレイクスルーだとしている。
コンピュテーショナルリソグラフィ向けの新しいNVIDIA cuLithoソフトウェアライブラリは、ファウンドリであるTSMCと、Synopsysによって、最新世代のNVIDIA HopperアーキテクチャGPU向けのソフトウェア、製造プロセス、およびシステムに統合されている。
チップ製造装置プロバイダーのASMLは、GPUとcuLithoで NVIDIAと緊密に連携しており、GPUのサポートをすべてのコンピュテーショナルリソグラフィソフトウェア製品に統合する予定。リソグラフィが物理学の限界に達している中、NVIDIAがcuLithoを導入したことで、業界は2nmを超えて前進することができるとしている。
フアン氏:チップ産業は、ほぼすべての産業の基盤です。
世界最大の企業を加速
世界中の企業がフアン氏のビジョンに賛同しているという。
通信大手のAT&TはNVIDIA AIを使用してデータをより効率的に処理し、Omniverse ACEとTokkio AIアバターのワークフローをテストして、カスタマーサービスと従業員のヘルプデスク用の仮想アシスタントを構築、カスタマイズ、展開している。
American Express、米国郵政公社、Microsoft OfficeおよびTeams、Amazonなど4万にのぼる顧客が、高性能のNVIDIA TensorRT推論オプティマイザーとランタイム、およびマルチフレームワークデータセンター推論サービスソフトウェアであるNVIDIA Tritonを使用。UberはTritonを使用して、毎秒数十万件の到着予想時間の予測を提供している。
また、毎日6,000万人を超えるユーザーを抱えるRobloxは、Tritonを使用して、ゲームのレコメンデーション、アバターの構築、コンテンツとマーケットプレイスの広告を管理するモデルを処理している。
Microsoft、Tencent、Baiduは、AIコンピュータービジョンにNVIDIA CV-CUDAを採用。オープンベータ版のこのテクノロジは、前処理と後処理を最適化し、コストとエネルギーを4倍節約するという。
不可能を可能にする
NVIDIAは、100のアクセラレーションライブラリを更新した。この更新には、量子コンピューティング用のcuQuantumと新しくオープンソース化されたCUDA Quantum、組み合わせ最適化用のcuOpt、コンピュテーショナルリソグラフィ用のcuLithが含まれる。
世界のNVIDIAエコシステムは、現在400万人の開発者、4万社もの企業、NVIDIA Inceptionの14,000のスタートアップまでもが含まれるとという。
フアン氏:私たちは一丸となって、世界が不可能を可能にする手助けをしているのです。