Google Cloud and Hugging Face Announce Strategic Partnership for AI Development

Google Cloud y Hugging Face han anunciado recientemente una asociación estratégica con el objetivo de avanzar en el campo de la inteligencia artificial (IA). Esta colaboración permite a los desarrolladores aprovechar la infraestructura de Google Cloud para todos los servicios de Hugging Face, incluido el entrenamiento y la implementación de los modelos de Hugging Face.

La asociación entre Hugging Face y Google Cloud tiene como objetivo democratizar la IA y respaldar el desarrollo del ecosistema de IA de código abierto. Como parte de la colaboración, Google Cloud se convierte en un socio en la nube clave para Hugging Face, ofreciendo a los desarrolladores la oportunidad de utilizar la infraestructura optimizada para IA de Google Cloud, como el cómputo, las unidades de procesamiento tensorial (TPU) y las unidades de procesamiento gráfico (GPU). Esta infraestructura permite a los desarrolladores entrenar y implementar modelos abiertos de manera fácil y eficiente, y construir aplicaciones innovadoras de IA generativa.

El enfoque de esta asociación es mejorar la capacidad de los desarrolladores para entrenar e implementar grandes modelos de IA en la nube de Google, brindando varios beneficios clave:

1. Integración simplificada: Los desarrolladores pueden entrenar, ajustar y implementar modelos de Hugging Face de manera fluida en la plataforma de IA de Vertex de Google Cloud directamente desde la plataforma de Hugging Face. Esta integración agiliza el proceso y permite a los desarrolladores aprovechar los servicios de MLOps de Google Cloud diseñados específicamente para IA.

2. Flexibilidad de infraestructura: Los desarrolladores de Hugging Face también pueden utilizar su propia infraestructura y escalar sus modelos implementándolos en Google Kubernetes Engine (GKE) mediante contenedores de aprendizaje profundo específicos de Hugging Face. Esto brinda a los desarrolladores una infraestructura de «hazlo tú mismo» para obtener la máxima flexibilidad.

3. Mejor rendimiento: La asociación proporciona acceso a la TPU v5e de Google Cloud para más desarrolladores de código abierto. Esta TPU ofrece un rendimiento mejorado y una latencia más baja en comparación con versiones anteriores, lo que permite a los desarrolladores obtener resultados más rápidos y eficientes.

4. Avances futuros: Google Cloud planea introducir soporte para las VM A3, con unidades de procesamiento tensorial H100 de NVIDIA, en el futuro. Estas GPU ofrecen velocidades de entrenamiento más rápidas y un mayor ancho de banda de red en comparación con la generación anterior, lo que permite a los desarrolladores ampliar los límites del desarrollo de IA.

A través de la utilización de Google Cloud Marketplace, los desarrolladores pueden administrar y facturar fácilmente la plataforma administrada de Hugging Face, que incluye inferencia, puntos finales, espacios, entrenamiento automático y más.

Esta asociación entre Google Cloud y Hugging Face tiene como objetivo hacer que la IA generativa sea más accesible e impactante para los desarrolladores. Al combinar los últimos modelos abiertos con la infraestructura y herramientas de IA optimizadas de Google Cloud, los desarrolladores pueden llevar sus capacidades de IA a nuevas alturas. Se espera que las opciones de implementación Vertex AI y GKE estén disponibles en la plataforma de Hugging Face en la primera mitad de 2024.

Preguntas frecuentes:

1. ¿Qué es la asociación entre Google Cloud y Hugging Face?
– Google Cloud y Hugging Face han formado una asociación estratégica para avanzar en el campo de la inteligencia artificial (IA) y respaldar el ecosistema de IA de código abierto.

2. ¿Cómo beneficia esta colaboración a los desarrolladores?
– Los desarrolladores pueden aprovechar la infraestructura de Google Cloud para todos los servicios de Hugging Face, incluido el entrenamiento y la implementación de modelos de Hugging Face.
– Pueden utilizar la infraestructura optimizada para IA de Google Cloud, como el cómputo, las TPUs y las GPUs, para entrenar e implementar modelos abiertos de manera fácil y eficiente.
– Proporciona integración simplificada, flexibilidad de infraestructura, rendimiento mejorado y avances futuros.

3. ¿Cómo simplifica la asociación la integración?
– Los desarrolladores pueden entrenar, ajustar e implementar modelos de Hugging Face de manera fluida en la plataforma de IA de Vertex de Google Cloud directamente desde la plataforma de Hugging Face.
– Esto agiliza el proceso y permite a los desarrolladores aprovechar los servicios de MLOps de Google Cloud diseñados específicamente para IA.

4. ¿Pueden los desarrolladores de Hugging Face utilizar su propia infraestructura?
– Sí, los desarrolladores de Hugging Face pueden implementar sus modelos en Google Kubernetes Engine (GKE) utilizando contenedores de aprendizaje profundo específicos de Hugging Face.
– Esto proporciona una infraestructura de «hazlo tú mismo» para obtener la máxima flexibilidad.

5. ¿Qué es la TPU v5e de Google Cloud y cómo beneficia a los desarrolladores?
– La TPU v5e de Google Cloud es un acelerador de hardware disponible para desarrolladores de código abierto.
– Ofrece un rendimiento mejorado y una latencia más baja para la inferencia, lo que permite obtener resultados más rápidos y eficientes.

6. ¿Qué avances futuros pueden esperar los desarrolladores?
– Google Cloud planea introducir soporte para las VM A3, con unidades de procesamiento tensorial H100 de NVIDIA.
– Estas GPUs ofrecen velocidades de entrenamiento más rápidas y mayor ancho de banda de red, ampliando los límites del desarrollo de IA.

Enlaces relacionados:
– Google Cloud: https://cloud.google.com/
– Hugging Face: https://huggingface.co/

The source of the article is from the blog guambia.com.uy