Es importante señalar que en computex, Nvidia presentó su “Nvidia Avatar Cloud Engine” (ACE) para juegos, que permite personajes no jugables (NPC) los cuales están basados en Inteligencia Artificial (IA), más inteligentes para aplicaciones de juegos.
“Nvidia Avatar Cloud Engine” (ACE) para juegos
Primero que nada, es necesario mencionar que “ACE” es un servicio de fundición de modelos de IA personalizado que transforma los juegos al ofrecer inteligencia a los NPC mediante interacciones de lenguaje natural impulsadas por Inteligencia Artificial.
Por tanto, hay que dejar claro que los desarrolladores de middleware, herramientas y juegos pueden utilizar el “ACE for Games” para poder crear e implementar modelos personalizados de Inteligencia Artificial de voz, conversación, así como animación en su software y juegos, esto lo informó Nvidia en Computex.
Según ha mencionado John Spitzer, vicepresidente de desarrollo y tecnología de rendimiento de Nvidia, La Inteligencia Artificial Generativa, posee el potencial de revolucionar la interactividad que los jugadores pueden tener con los personajes del juego y asimismo, aumentar drásticamente la inmersión en los juegos. Al mismo tiempo que detalló que NVIDIA está encabezando el uso de IA generativa en juegos.
Inteligencia Artificial Generativa pionera en juegos
Ahora bien, cabe destacar que sobre la base de Omniverse de Nvidia, (una plataforma de colaboración de metaverso para ingenieros), “ACE for Games” consigue brindar modelos básicos de IA optimizados para el habla, así como para la conversación y la animación de personajes. Incluso, hay que resaltar que eso incluye “Nvidia NeMoTM”, para construir, así como personalizar e implementar modelos de lenguaje, haciendo uso de datos propietarios. Según se conoce, los modelos de LLM se pueden personalizar con la tradición y las historias de fondo de los personajes, al mismo tiempo que se pueden proteger contra conversaciones contraproducentes o inseguras mediante “NeMo Guardrails”.
Asimismo, hay que dejar claro que también incluye “Nvidia Riva” para el reconocimiento de voz automático, así como texto a voz para permitir conversaciones de voz en vivo. Incluso, posee “Nvidia Omniverse Audio2Face”, para poder crear de forma instantánea una animación facial expresiva de un personaje de juego para que logre coincidir con cualquier pista de voz. Además, “Audio2Face” ostenta conectores Omniverse para Unreal Engine 5, por lo que los desarrolladores pueden añadir animación facial directamente a los personajes de MetaHuman. Los desarrolladores cuentan con la capacidad de poder integrar toda la solución “Nvidia ACE for Games” o usar solo los componentes que requieren.
La demostración de Kairos logra brindar un vistazo al futuro de los juegos
Según se ha descubierto recientemente, Nvidia colaboró con Convai, miembro del programa de inicio Inception centrado en la Inteligencia Artificial de Nvidia, para poder exponer la manera cómo los desarrolladores pronto tendrán la oportunidad de poder utilizar el denominado “Nvidia ACE for Games” para crear NPC. Convai, el cual, se centra en desarrollar IA conversacional de vanguardia para mundos de juegos virtuales, integró módulos ACE en su plataforma de avatar en tiempo real de extremo a extremo.
Según han dejado en evidencia en una demostración, denominada “Kairos”, los jugadores interactúan con Jin, (el proveedor de una tienda de ramen). Aunque es un NPC, Jin logra responder a las consultas en lenguaje natural de manera realista y coherente con la historia de fondo narrativa, esto lo logra gracias a la ayuda de la IA generativa. Según se conoció, la demostración se procesa en “Unreal Engine 5” usando las últimas funciones de trazado de rayos y Nvidia DLSS.
Tal y como han informado, las redes neuronales que habilitan “Nvidia ACE for Games”, se encuentran optimizadas para diferentes capacidades, con varias compensaciones de tamaño, así como rendimiento y calidad. Es importante dejar claro que el servicio de fundición “ACE for Games”, permitirá ayudar a los desarrolladores a ajustar los modelos para sus juegos, posteriormente, Nvidia puede implementarlos mediante Nvidia DGX Cloud, PC GeForce RTX o incluso, en las instalaciones para la inferencia en tiempo real (al instante). Además, los modelos están optimizados para la latencia, el cual, es un requisito fundamental para las interacciones realmente inmersivas y receptivas en los juegos.
Inteligencia Artificial Generativa para poder transformar la experiencia de juego
Es importante mencionar que tanto los desarrolladores de juegos, como las nuevas empresas ya se encuentran utilizando las tecnologías de Inteligencia Artificial Generativa de Nvidia para sus flujos de trabajo. Para mencionar un ejemplo, podemos decir que “GSC Game World”, (uno de los primordiales desarrolladores de juegos de Europa), está adoptando “Audio2Face” en su próximo juego, denominado como “STALKER 2 Heart of Chernobyl”, así como ellos, son muchos los que también lo están haciendo actualmente.