Nos videojogos, principalmente nos RPG, quando há algum tipo de diálogo entre a personagem do utilizador e um qualquer NPC (Non Playable Character), o jogador escolhe a partir de um conjunto de frases predeterminadas e, dependendo do jogo, o NPC responde com uma voz pré-gravada ou com texto. Mas, a Inteligência Artificial está prestes a mudar tudo isto. Na Computex 2023, o CEO da Nvidia, Jensen Huang, demonstrou uma nova tecnologia que permite ao utilizador falar directamente com os NPC.
Com esta tecnologia, em vez de clicar em frases predeterminadas, o jogador prime um botão e fala para um microfone e a personagem do jogo responde-lhe de acordo com o contexto da situação do jogo. Claro que, na demonstração, a voz do NPC é algo robótica, mas também estamos no início.
Se vir o vídeo acima, percebe o potencial que esta tecnologia traz para os videojogos do futuro, já não será preciso gravar todos os diálogos porque quem está a responder em tempo real é uma IA.
Esta demonstração foi desenvolvida pela Nvidia e pela Convai, para promover um conjunto de ferramentas para criação de elementos para jogos chamada Nvidia ACE (Avatar Cloud Engine) for Games, cujas criações podem ser usadas localmente, ou através da cloud. O ACE inclui as ferramentas NeMO, que serve para implementar modelos de linguagem de grandes dimensões, ou LLM (Large Language Model), e a Riva que permite converter voz para texto ou texto para voz.
A demonstração foi construída com recurso ao Unreal Engine 5 e, claro, que tem ray trace. Numa outra apresentação na Computex, o responsável pela plataforma GeForce na Nvidia, Jason Paul, disse que esta tecnologia pode ser usada em mais que uma personagem em simultâneo e até pode vir a permitir que os NPC tenham diálogos entre si.