Nvidia une fuerzas con Hugging y han anunciado recientemente una asociación que pondrá la supercomputación de IA generativa al alcance de millones de desarrolladores que crean modelos de lenguaje grandes (LLM) y otras aplicaciones avanzadas de Inteligencia Artificial (IA). ¡Conozca aquí en TECHcetera los mejores datos sobre esta asociación!
Nvidia une fuerzas con Hugging para generar grandes beneficios
Al proporcionar a los desarrolladores acceso a la supercomputación NVIDIA DGX Cloud AI dentro de la plataforma Hugging Face para entrenar y así mismo, ajustar modelos avanzados de IA, la combinación podrá ayudar a potenciar la adopción de la Inteligencia Artificial Generativa en la industria usando LLM personalizados con datos comerciales para aplicaciones concretas de la industria (incluyendo chatbots inteligentes, así como también búsqueda e incluso, resumen).
Como parte de la colaboración, Hugging Face logrará brindar un nuevo servicio, denominado “Training Cluster as a Service”, para poder simplificar la creación de modelos de IA generativos nuevos y personalizados para la compañía. Impulsado por NVIDIA DGX Cloud, el servicio se encontrará disponible en los próximos meses.
Capacitación y personalizaciones LLM potentes dentro de Hugging Face
La plataforma Hugging Face permite a los desarrolladores construir, entrenar e, incluso, implementar modelos de Inteligencia Artificial de última generación haciendo uso de recursos de código abierto. Más de 15 000 organizaciones utilizan Hugging Face y su comunidad ha compartido más de 250 000 modelos y así mismo, 50 000 conjuntos de datos.
Por lo tanto, la integración de DGX Cloud con Hugging Face conseguirá ofrecer acceso con un solo clic a la plataforma de supercomputación de IA de múltiples nodos de NVIDIA. Con DGX Cloud, los usuarios de Hugging Face tendrán la capacidad de poder conectarse a la supercomputación NVIDIA AI, suministrando el software y la infraestructura necesarios para entrenar y ajustar de forma rápida los modelos básicos con datos únicos para impulsar una nueva ola de desarrollo LLM empresarial. Ahora bien, con el novedoso servicio “Training Cluster as a Service” (impulsado por DGX Cloud), las empresas podrán aprovechar sus datos únicos para Hugging Face para crear modelos enormemente eficientes y lo mejor de todo, en un tiempo récord.
DGX Cloud apresura el desarrollo y la personalización para modelos masivos
Según han informado, cada instancia de DGX Cloud cuenta con ocho GPU NVIDIA H100 o A100 de 80 GB Tensor Core, para un total de 640 GB de memoria GPU por nodo. NVIDIA Networking logra brindar un tejido de alto rendimiento y así mismo, baja latencia que consigue garantizar que las cargas de trabajo puedan escalar en clústeres de sistemas interconectados para cumplir con los requisitos de rendimiento de las cargas de trabajo de Inteligencia Artificial avanzada.
El soporte de los expertos de NVIDIA se incluye con DGX Cloud para poder ayudar a los clientes a optimizar sus modelos y también para resolver de manera rápida los desafíos de desarrollo. Por su parte, la infraestructura de DGX Cloud está alojada por los principales socios proveedores de servicios en la nube de NVIDIA.
Datos en cuanto a la disponibilidad
Se espera que la integración de NVIDIA DGX Cloud con Hugging Face, se encuentre disponible en los próximos meses.