プレスリリース
Hugging Face プラットフォームへの NVIDIA DGX クラウドの統合により、LLM のトレーニングとチューニングを高速化、ほぼすべての業界のモデルでのカスタマイズを簡素化へ
[画像: https://prtimes.jp/i/12662/405/resize/d12662-405-92aeae9eaf154162d1d5-0.jpg ]
ロサンゼルス、SIGGRAPH - 2023 年 8 月 8 日 - NVIDIA と Hugging Face は本日、大規模言語モデル (LLM) やその他の高度な AI アプリケーションを構築する何百万人もの開発者が生成 AI スーパーコンピューティングを利用できるようにするパートナーシップを発表しました。
開発者が Hugging Face プラットフォーム内の NVIDIA DGX(TM) Cloud(https://www.nvidia.com/ja-jp/data-center/dgx-cloud/) AI スーパーコンピューティングにアクセスし、高度な AI モデルをトレーニングおよびチューニングできるようにすることで、インテリジェントなチャットボット、検索、要約など業界固有のアプリケーション向けにビジネス データでカスタム調整された LLM を使用した生成 AI の業界導入を促進します。
NVIDIA の創業者/CEO である (Jensen Huang) は以下のように述べています。「研究者と開発者は、あらゆる業界を変革する生成 AI の柱です。Hugging Face と NVIDIA は、世界最大の AI コミュニティを、世界の主要なクラウド上の NVIDIA の AI コンピューティング プラットフォームと結び付けます。Hugging Face コミュニティは数クリックで NVIDIA AI コンピューティングでアクセスできるようになるのです」
コラボレーションの一環として、Hugging Face は、企業向けの新しいカスタム生成 AI モデルの作成を簡素化するために、Training Cluster as a Service と呼ばれる新しいサービスを提供します。NVIDIA DGX Cloud を利用したこのサービスは、今後数か月以内に利用可能になる予定です。
「すでに世界中の人々が生成 AI のツールを使って新たな発見をして、つながりを構築していますが、私たちはまだテクノロジの変革の初期段階にいます」と Hugging Face の共同創業者/CEO の Clement Delangue 氏は述べています。「私たちのコラボレーションにより、NVIDIA の最先端の AI スーパーコンピューティングが Hugging Face に導入され、企業がオープンソースで AI の運命を自らの手で掴むことが可能となり、オープンソース コミュニティが次に到来するものに貢献するために必要なソフトウェアとスピードに簡単にアクセスできるようになります」
Hugging Face 内で LLM のカスタマイズとトレーニングを強化
Hugging Face のプラットフォームを使用すると、開発者はオープンソースのリソースを使用して最先端の AI モデルを構築、トレーニング、展開が可能となります。15,000 を超える組織が Hugging Face を使用しており、そのコミュニティは 25 万を超えるモデルと 5 万ものデータセットを共有しています。
DGX Cloud と Hugging Face の統合により、NVIDIA のマルチノード AI スーパーコンピューティング プラットフォームにワンクリックでアクセスできるようになります。DGX Cloud を使用すると、Hugging Face ユーザーは NVIDIA AI スーパーコンピューティングに接続できるようになります。これにより、独自のデータを使用して基盤モデルを迅速にトレーニングおよびチューニングするために必要なソフトウェアとインフラストラクチャが提供され、エンタープライズ向けの LLM 開発の新しい波を推進できます。また、DGX Cloud を利用した Training Cluster as a Service を使用すると、企業は独自のデータを活用して、Hugging Face で記録的な速さで独自の効率的なモデルを作成できるようになります。
DGX Cloud により大規模モデルの開発とカスタマイズが高速化
DGX Cloud の各インスタンスには、8 基の NVIDIA H100(https://www.nvidia.com/ja-jp/data-center/h100/) または A100(https://www.nvidia.com/ja-jp/data-center/a100/) 80GB Tensor コア GPU が搭載されており、ノードごとに合計 640GB の GPU メモリを搭載しています。NVIDIA ネットワーキング(https://www.nvidia.com/en-us/drivers/feature-network/)が提供する高性能かつ低遅延のファブリックは、ワークロードを相互接続されたシステムからなるクラスター全体に拡張することで、高度な AI ワークロードのパフォーマンス要件を満たします。
DGX Cloud には NVIDIA のエキスパートによるサポートが含まれており、顧客がモデルを最適化し、開発上の課題を迅速に解決できるよう支援します。
DGX Cloud インフラストラクチャは、主要な NVIDIA クラウド サービス プロバイダー パートナーにホストされています(https://www.nvidia.com/ja-jp/about-nvidia/press-releases/2023/nvidia-launches-dgx-cloud-giving-every-enterprise-instant-access-to-ai-supercomputer-from-a-browser/)。
提供予定
NVIDIA DGX Cloud と Hugging Face の統合は、今後数か月以内に利用可能になる予定です。
NVIDIA DGX Cloud の詳細については、ジェンスン フアンによる SIGGRAPH 基調講演のオンデマンド(https://www.nvidia.com/ja-jp/events/siggraph/)配信をご覧ください。
Hugging Face について
Hugging Face は、機械学習コミュニティのためのコラボレーション プラットフォームです。
Hugging Face Hub は、誰もがオープンソース ML を共有、探索、発見、実験できる中心的な場所として機能し、次世代の機械学習エンジニア、科学者、エンド ユーザーが学習、コラボレーション、作業を共有して、オープンで倫理的な AI の未来を一緒に構築可能にします。
急成長するコミュニティ、最も使用されているオープンソースの ML ライブラリとツール、テクノロジーの最先端を探求する有能な科学チームにより、Hugging Face は AI 革命の中心となっています。
NVIDIA について
1993 年の創業以来、NVIDIA NVIDIA(https://www.nvidia.com/ja-jp/) (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、各種産業のデジタル化を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/
※本発表資料は米国時間 2023 年 8 月 8 日に発表されたプレスリリース(https://nvidianews.nvidia.com/news/nvidia-and-hugging-face-to-connect-millions-of-developers-to-generative-ai-supercomputing)の抄訳です。
プレスリリース提供:PR TIMES