Google Cloud and Hugging Face Announce Strategic Partnership for AI Development

Google CloudとHugging Faceは最近、人工知能(AI)の分野を前進させることを目指した戦略的パートナーシップを発表しました。この連携により、開発者はGoogle Cloudのインフラストラクチャを活用して、トレーニングおよびハグフェイスモデルの提供を含むHugging Faceのすべてのサービスを利用することができます。

Hugging FaceとGoogle Cloudのパートナーシップは、AIの民主化を目指し、オープンソースのAIエコシステムの開発を支援することを目的としています。この連携の一環として、Google CloudはHugging Faceの主要なクラウドパートナーとなり、開発者にGoogle CloudのAI最適化されたインフラストラクチャ(コンピュート、TPU、GPUなど)を利用する機会を提供します。このインフラストラクチャにより、開発者は簡単かつ効率的にオープンモデルのトレーニングと提供、革新的な生成AIアプリケーションの構築が可能となります。

このパートナーシップの焦点は、Google Cloud上で大規模なAIモデルのトレーニングと提供能力を向上させることであり、以下のいくつかの主要な利点があります:

1. 簡易的な統合:開発者は、Hugging Faceプラットフォームから直接Google CloudのVertex AIプラットフォームでHugging Faceモデルのトレーニング、チューニング、提供をシームレスに行うことができます。この統合により、プロセスが簡素化され、開発者はGoogle Cloudの特別なMLOpsサービスを利用できます。

2. インフラストラクチャの柔軟性:Hugging Faceの開発者は、Hugging Face固有のディープラーニングコンテナを使用して、自分自身のインフラストラクチャを活用し、モデルをGoogle Kubernetes Engine(GKE)に展開することもできます。これにより、開発者は最大限の柔軟性を持つ「自己実施」のインフラストラクチャを手に入れることができます。

3. パフォーマンスの向上:このパートナーシップにより、より多くのオープンソースの開発者がCloud TPU v5eを利用できるようになります。このTPUは、以前のバージョンと比較して、推論において改良されたパフォーマンスと低いレイテンシを提供し、開発者はより速く効率的な結果を実現することができます。

4.将来の進展:Google Cloudは、将来的にNVIDIAのH100 Tensor Core GPUを搭載したA3 VMのサポートを導入する予定です。これらのGPUは、以前の世代と比較して高速なトレーニング速度とより大きなネットワーキング帯域幅を提供し、開発者はAIの開発の限界に挑戦することができます。

Google Cloud Marketplaceの利用により、開発者はHugging Faceの管理されたプラットフォーム(推論、エンドポイント、スペース、AutoTrainなど)の管理と請求を簡単に行うことができます。

このGoogle CloudとHugging Faceのパートナーシップは、開発者によりアクセス可能で効果的な生成AIを提供することを目指しています。最新のオープンモデルをGoogle Cloudの最適化されたAIインフラストラクチャとツールと組み合わせることで、開発者はAIの能力をさらに高めることができます。Vertex AIとGKEの展開オプションは、2024年上半期にHugging Faceプラットフォームで利用可能となる予定です。

よくある質問:

1. Google CloudとHugging Faceのパートナーシップとは何ですか?
– Google CloudとHugging Faceは、人工知能(AI)の分野を前進させ、オープンソースのAIエコシステムを支援するための戦略的パートナーシップを結んでいます。

2. この連携は開発者にどのような利益をもたらしますか?
– 開発者は、Hugging Faceのトレーニングおよび提供など、すべてのHugging Faceサービスに対してGoogle Cloudのインフラストラクチャの力を利用することができます。
-彼らは、コンピューティング、TPU、GPUなどのGoogle CloudのAI最適化されたインフラストラクチャを利用して、オープンモデルの簡単かつ効率的なトレーニングと提供が可能です。
– 簡易的な統合、インフラストラクチャの柔軟性、パフォーマンス向上、将来の進展を提供します。

3. パートナーシップは統合をどのように簡略化していますか?
– 開発者は、Hugging Faceプラットフォームから直接Google CloudのVertex AIプラットフォームでHugging Faceモデルのトレーニング、チューニング、提供をシームレスに行うことができます。
– これにより、プロセスが簡素化され、開発者はGoogle Cloudの特別なMLOpsサービスを利用できます。

4. Hugging Faceの開発者は自分自身のインフラストラクチャを使用できますか?
– はい、Hugging Faceの開発者は、Hugging Face固有のディープラーニングコンテナを使用して、自分自身のモデルをGoogle Kubernetes Engine(GKE)に展開することができます。
– これにより、開発者は最大限の柔軟性を持つ「自己実施」のインフラストラクチャを得ることができます。

5. Cloud TPU v5eとは何であり、開発者にどのような利益をもたらすのですか?
– Cloud TPU v5eは、オープンソースの開発者が利用できるハードウェアアクセラレータです。
– これは、以前のバージョンと比較して推論において改良されたパフォーマンスと低いレイテンシを提供し、より高速かつ効率的な結果を実現できます。

6. 開発者は将来的にどのような進展が期待できますか?
– Google Cloudは、NVIDIAのH100 Tensor Core GPUを搭載したA3 VMのサポートを導入する予定です。
– これらのGPUは、以前の世代と比較して高速なトレーニング速度とより大きなネットワーキング帯域幅を提供し、開発者はAIの開発の限界に挑戦することができます。

関連リンク:
– Google Cloud
– Hugging Face

[埋め込み]https://www.youtube.com/embed/hYkM3T57Mvk[/埋め込み]

The source of the article is from the blog krama.net