NVIDIA ACE sembra essere una tecnologia rivoluzionaria che potrebbe cambiare per sempre i videogiochi. Si tratta dell’introduzione di una vera e propria IA generativa in grado di dialogare con il giocatore, riconoscere la voce, ma anche creare interazioni tra NPC più elaborate, animazioni e immagini. Al CES 2025 se ne è parlato molto, con diversi sviluppatori che in concomitanza della presentazione delle RTX Serie 50, hanno mostrato le implementazioni del software nei propri giochi.
Come scopriremo, il software non si limita solo a cambiare le dinamiche di gameplay lato giocatore. Ma va anche a creare una serie di tool di sviluppo utili per velocizzare e semplificare la produzione di videogiochi soprattutto per i team più piccoli e con meno risorse a disposizione.
Già lo scorso anno NVIDIA ci ha mostrato qualcosa su questa tecnologia, in diversi scenari creati appositamente. Un primo di stampo sci-fi/cyberpunk già nel 2023, e un secondo contemporaneo lo scorso marzo 2024. Ma ora in occasione del CES 2025 è possibile vedere i primi esempi di implementazione nei giochi.
InZoi: interazioni avanzate tra NPC
Il primo gioco che ha mostrato l’implementazione di NVIDIA ACE nel gameplay è stato InZoi, il futuro rivale coreano di The Sims. In questo titolo l’IA viene utilizzata per far interagire tra loro gli NPC a livello più profondo. Come viene mostrato nel trailer qui di seguito, gli gli NPC sono in grado di comprendere cosa li circonda e reagire di conseguenza, creando nuove interazioni sociali basate su una motivazione determinata dall’IA. Alla fine di ogni giornata il personaggio sceglierà di cambiare le proprie attività programmate in base a tali interazioni e nuovi interessi.
Dead Meat: le funzioni IA disponibili anche in locale
Dead Meat è un particolare gioco investigativo, in cui vi ritroverete a dover fare interrogatori in modo del tutto particolare. Infatti non dovrete scegliere tra una serie di domande predeterminate, ma potrete farle con la vostra voce e ottenere una reazione e una risposta adeguata.
L’intelligenza artificiale si incaricherà di riconoscere la vostra voce, trasformarla in testo da elaborare e a cui replicare adeguatamente con una risposta generata appositamente. Finora questo processo era possibile farlo solamente in cloud, tramite server appositi in grado di effettuare tali elaborazioni (come quelli di Chat GPT). Ma grazie a NVIDIA ACE e le schede video RTX è possibile realizzare anche una versione che giri in locale senza necessità di una connessione internet.
ZooPunk: dialoghi, animazioni e contenuti tramite IA generativa
Se dando uno sguardo al trailer di ZooPunk qualcosa vi è sembrato familiare, avete ragione perché lo è. Si tratta del nuovo progetto di TiGames, gli sviluppatori di FIST Forged in Shadow Torch che sarà ampiamente basato sulle IA generative e NVIDIA ACE.
In ZooPunk l’IA sarà un vero e proprio elemento di gameplay. Come ci viene mostrato dagli sviluppatori, potrete parlare direttamente con gli NPC, in modo del tutto analogo a Dead Meat di cui vi abbiamo scritto sopra. La vostra voce verrà riconosciuta e convertita in testo per poi generare una risposta pertinente da parte dell’NPC di turno. Ma non ci si limita a questo, la stessa voce e le animazioni facciali sono generate tramite IA in modo da essere sincronizzate con le parole pronunciate. Infine una IA generativa si occupa di creare loghi, skin e pattern di colori per l’astronave, in base alle nostre indicazioni.
Tutto questo normalmente richiederebbe una connessione internet e dei server dedicati per elaborare i dati. Ma per ZooPunk non è necessario perché tutti gli algoritmi di IA possono essere elaborati direttamente dalle schede video NVIDIA RTX tramite NVIDIA ACE.
World of Jade Dynasty: dalla voce all’animazione facciale tramite IA
World of Jade Dynasty è un nuovo MMORPG che si ispira all’omonimo romanzo cinese ed è sviluppato in Unreal Engine 5 con l’utilizzo anche del tool “Audio2Face” di NVIDIA ACE. In questo caso, come per ZooPunk, il tool viene utilizzato per trasformare le parole e la voce degli NPC in animazioni facciali con tanto di lipsync. In base a come viene configurato l’NPC, le sue parole possono esprimere una pletora di emozioni differenti, quali: stupore, rabbia, mancanza di tatto, disgusto, paura, pena, gioia, dolore e tristezza. Proprio come abbiamo visto nel trailer dello scorso anno di NVIDIA ACE.
AI People: il cozy sandbox delle intelligenze artificiali
AI People è un sandbox cozy interamente basato sulle intelligenze artificiali. Potremmo definirlo una versione semplificata di The Sims da un lato, ma anche più complessa per quel che riguarda gli NPC e non solo.
In un certo senso potremmo definire questo gioco un RPG interamente creato dall’IA. Fin dall’inizio avrete l’occasione di creare il vostro scenario ideale scrivendone la descrizione, così come per la descrizione del personaggio protagonista e degli NPC principali. Il testo verrà elaborato da una IA che creerà lo scenario, i personaggi, i dialoghi e la storia da seguire. Potrete anche parlare con gli altri personaggi sia usando la voce, sia scrivendo i testi delle frasi da pronunciare.
Alien Rogue Incursion: creare personaggi con Audio2Face
Alien Rogue Incursion è l’ultimo gioco della saga dedicata agli xenomorfi ed erede di Alien Isolation, ma questa volta progettato interamente per la VR. Anche questo titolo farà utilizzo di NVIDIA ACE e in particolare del tool Audio2Face che in questo caso è stato utilizzato per le animazioni facciali ed effettuare il lip sync del doppiaggio. Funzione molto utile che libera gli sviluppatori da un carico di lavoro e la produzione da spese, laddove non viene effettuato il motion capture di stampo classico per alcuni personaggi.