fbpx

Nvidia une fuerzas con Hugging para generar supercomputación con IA

Nvidia une fuerzas con Hugging para brindar un nuevo servicio, denominado “Training Cluster as a Service”.

Nvidia une fuerzas con Hugging y han anunciado recientemente una asociación que pondrá la supercomputación de IA generativa al alcance de millones de desarrolladores que crean modelos de lenguaje grandes (LLM) y otras aplicaciones avanzadas de Inteligencia Artificial (IA). ¡Conozca aquí en TECHcetera los mejores datos sobre esta asociación!

 

LLMs
LLMs

 

Nvidia une fuerzas con Hugging para generar grandes beneficios

 

Al proporcionar a los desarrolladores acceso a la supercomputación NVIDIA DGX Cloud AI dentro de la plataforma Hugging Face para entrenar y así mismo, ajustar modelos avanzados de IA, la combinación podrá ayudar a potenciar la adopción de la Inteligencia Artificial Generativa en la industria usando LLM personalizados con datos comerciales para aplicaciones concretas de la industria (incluyendo chatbots inteligentes, así como también búsqueda e incluso, resumen).

 

via GIPHY

 

Como parte de la colaboración, Hugging Face logrará brindar un nuevo servicio, denominado “Training Cluster as a Service”, para poder simplificar la creación de modelos de IA generativos nuevos y personalizados para la compañía. Impulsado por NVIDIA DGX Cloud, el servicio se encontrará disponible en los próximos meses.

 

Capacitación y personalizaciones LLM potentes dentro de Hugging Face

 

La plataforma Hugging Face permite a los desarrolladores construir, entrenar e, incluso, implementar modelos de Inteligencia Artificial de última generación haciendo uso de recursos de código abierto. Más de 15 000 organizaciones utilizan Hugging Face y su comunidad ha compartido más de 250 000 modelos y así mismo, 50 000 conjuntos de datos.

 

Por lo tanto, la integración de DGX Cloud con Hugging Face conseguirá ofrecer acceso con un solo clic a la plataforma de supercomputación de IA de múltiples nodos de NVIDIA. Con DGX Cloud, los usuarios de Hugging Face tendrán la capacidad de poder conectarse a la supercomputación NVIDIA AI, suministrando el software y la infraestructura necesarios para entrenar y ajustar de forma rápida los modelos básicos con datos únicos para impulsar una nueva ola de desarrollo LLM empresarial. Ahora bien, con el novedoso servicio “Training Cluster as a Service” (impulsado por DGX Cloud), las empresas podrán aprovechar sus datos únicos para Hugging Face para crear modelos enormemente eficientes y lo mejor de todo, en un tiempo récord.

 

via GIPHY

 

DGX Cloud apresura el desarrollo y la personalización para modelos masivos

 

Según han informado, cada instancia de DGX Cloud cuenta con ocho GPU NVIDIA H100 o A100 de 80 GB Tensor Core, para un total de 640 GB de memoria GPU por nodo. NVIDIA Networking logra brindar un tejido de alto rendimiento y así mismo, baja latencia que consigue garantizar que las cargas de trabajo puedan escalar en clústeres de sistemas interconectados para cumplir con los requisitos de rendimiento de las cargas de trabajo de Inteligencia Artificial avanzada.

 

El soporte de los expertos de NVIDIA se incluye con DGX Cloud para poder ayudar a los clientes a optimizar sus modelos y también para resolver de manera rápida los desafíos de desarrollo. Por su parte, la infraestructura de DGX Cloud está alojada por los principales socios proveedores de servicios en la nube de NVIDIA.

 

Datos en cuanto a la disponibilidad

 

Se espera que la integración de NVIDIA DGX Cloud con Hugging Face, se encuentre disponible en los próximos meses.

 

Leave a Reply

Your email address will not be published. Required fields are marked *