Google Cloud and Hugging Face Announce Strategic Partnership for AI Development

Google Cloud und Hugging Face haben kürzlich eine strategische Partnerschaft angekündigt, die darauf abzielt, das Feld der künstlichen Intelligenz (KI) voranzutreiben. Diese Zusammenarbeit ermöglicht es Entwicklern, die Infrastruktur von Google Cloud für alle Hugging Face-Services zu nutzen, einschließlich des Trainings und der Bereitstellung von Hugging Face-Modellen.

Die Partnerschaft zwischen Hugging Face und Google Cloud zielt darauf ab, KI zu demokratisieren und die Entwicklung des Open-Source-KI-Ökosystems zu unterstützen. Im Rahmen der Zusammenarbeit wird Google Cloud zum wichtigsten Cloud-Partner für Hugging Face und bietet Entwicklern die Möglichkeit, die KI-optimierte Infrastruktur von Google Cloud zu nutzen, wie z.B. Computing, TPUs und GPUs. Diese Infrastruktur ermöglicht es Entwicklern, einfach und effizient offene Modelle zu trainieren und innovative generative KI-Anwendungen zu erstellen.

Der Schwerpunkt dieser Partnerschaft liegt auf der Verbesserung der Fähigkeit von Entwicklern, große KI-Modelle auf Google Cloud zu trainieren und bereitzustellen, und bietet mehrere wesentliche Vorteile:

1. Vereinfachte Integration: Entwickler können nahtlos Hugging Face-Modelle auf der Vertex AI-Plattform von Google Cloud direkt von der Hugging Face-Plattform aus trainieren, optimieren und bereitstellen. Diese Integration vereinfacht den Prozess und ermöglicht es Entwicklern, die speziell für maschinelles Lernen entwickelten MLOps-Dienste von Google Cloud zu nutzen.

2. Infrastrukturflexibilität: Hugging Face-Entwickler können auch ihre eigene Infrastruktur nutzen und ihre Modelle skalieren, indem sie sie auf Google Kubernetes Engine (GKE) mit Hugging Face-spezifischen Deep Learning-Containern bereitstellen. Dies gibt Entwicklern eine „Mach-es-selbst“-Infrastruktur für maximale Flexibilität.

3. Verbesserte Leistung: Die Partnerschaft bietet offenen Quellcode-Entwicklern Zugang zu Cloud TPU v5e. Diese TPU bietet im Vergleich zu früheren Versionen verbesserte Leistung und geringere Latenz bei der Inferenz, was Entwicklern schnellere und effizientere Ergebnisse ermöglicht.

4. Zukünftige Weiterentwicklungen: Google Cloud plant, in Zukunft Unterstützung für A3 VMs einzuführen, die von NVIDIAs H100 Tensor Core GPUs angetrieben werden. Diese GPUs bieten schnellere Trainingssgeschwindigkeiten und eine größere Netzwerkbandbreite im Vergleich zur vorherigen Generation, und ermöglichen es Entwicklern, die Grenzen der KI-Entwicklung weiter auszudehnen.

Durch die Nutzung des Google Cloud Marketplace können Entwickler die Hugging Face-Plattform, einschließlich Inference, Endpoints, Spaces, AutoTrain und mehr, einfach verwalten und abrechnen.

Diese Partnerschaft zwischen Google Cloud und Hugging Face hat zum Ziel, generative KI für Entwickler zugänglicher und wirkungsvoller zu machen. Durch die Kombination der neuesten offenen Modelle mit optimierter KI-Infrastruktur und Werkzeugen von Google Cloud können Entwickler ihre KI-Fähigkeiten auf neue Höhen bringen. Die Vertex AI- und GKE-Bereitstellungsoptionen werden voraussichtlich in der ersten Jahreshälfte 2024 auf der Hugging Face-Plattform verfügbar sein.

FAQ:

1. Was ist die Partnerschaft zwischen Google Cloud und Hugging Face?
– Google Cloud und Hugging Face haben eine strategische Partnerschaft geschlossen, um das Feld der künstlichen Intelligenz (KI) voranzubringen und das Open-Source-KI-Ökosystem zu unterstützen.

2. Wie profitieren Entwickler von dieser Zusammenarbeit?
– Entwickler können die Infrastruktur von Google Cloud für alle Hugging Face-Services nutzen, einschließlich des Trainings und der Bereitstellung von Hugging Face-Modellen.
– Sie können die KI-optimierte Infrastruktur von Google Cloud wie Computing, TPUs und GPUs nutzen, um offene Modelle einfach und effizient zu trainieren und bereitzustellen.
– Die Partnerschaft bietet Vereinfachte Integration, Infrastrukturflexibilität, verbesserte Leistung und zukünftige Weiterentwicklungen.

3. Wie vereinfacht die Partnerschaft die Integration?
– Entwickler können nahtlos Hugging Face-Modelle auf der Vertex AI-Plattform von Google Cloud direkt von der Hugging Face-Plattform aus trainieren, optimieren und bereitstellen.
– Dies vereinfacht den Prozess und ermöglicht es Entwicklern, die speziell für maschinelles Lernen entwickelten MLOps-Dienste von Google Cloud zu nutzen.

4. Können Hugging Face-Entwickler ihre eigene Infrastruktur nutzen?
– Ja, Hugging Face-Entwickler können ihre Modelle auf Google Kubernetes Engine (GKE) mit Hugging Face-spezifischen Deep Learning-Containern bereitstellen.
– Dies bietet eine „Mach-es-selbst“-Infrastruktur für maximale Flexibilität.

5. Was ist der Cloud TPU v5e und wie profitieren Entwickler davon?
– Der Cloud TPU v5e ist ein Hardware-Beschleuniger, der Open-Source-Entwicklern zur Verfügung steht.
– Er bietet verbesserte Leistung und geringere Latenz bei der Inferenz, was schnellere und effizientere Ergebnisse ermöglicht.

6. Mit welchen zukünftigen Entwicklungen können Entwickler rechnen?
– Google Cloud plant, in Zukunft Unterstützung für A3 VMs einzuführen, die von NVIDIAs H100 Tensor Core GPUs angetrieben werden.
– Diese GPUs bieten schnellere Trainingssgeschwindigkeiten und eine größere Netzwerkbandbreite, um die Grenzen der KI-Entwicklung auszudehnen.

Verwandte Links:
– Google Cloud
– Hugging Face

The source of the article is from the blog yanoticias.es