Parlerons-nous bientôt aux personnages dans les jeux vidéo ?
Par June Cantillon - Publié le
Le futur du jeu vidéo selon Nvidia
Nvidia a profité du Computex de Taipei pour faire la démonstration de sa technologie ACE (pour Avatar Cloud Engine) for Games s'appuyant sur l'outil NeMo pour la génération de la conversation via les grands modèles de langages (LLM) et sur Riva pour la diction et la synchronisation à l'image. Cette démonstration intitulée
Kairospermet d'appuyer sur une touche afin de parler en langage naturel à un personnage non joueur. La technologie devrait ainsi permettre de converser nettement plus naturellement avec les PNJ qu'en choisissant parmi quelques phrases toutes faites.
Des échanges en langage naturel
Evidemment, l'immersion sera fonction de la performance de l'IA générative. Cette dernière devra donc être à la hauteur des dialogues dont nous avons l'habitudes dans les jeux actuels, écrits par des auteurs, parfois de talent. Chaque personnage devra donc pouvoir piocher dans une banque de données et réagir en fonction des actions du joueurs. Cela pourrait également permettre d'obtenir des dialogues qui évoluent réellement en fonction de l'avancée du joueur dans l'histoire.
S'il n'y a rien de plus agaçant que de se voir répéter en boucle les mêmes phrases par un PNJ, la moindre erreur de l'IA pourra également briser l'immersion, voire la découverte si l'algorithme décide de vous dévoiler un pan à un moment inopportun. Comme d'habitude avec l'IA générative, la question de la mise en danger du travail des auteurs se pose (même si un travail de validation en amont restera certainement nécessaire dans un premier temps, comme nous l'avions vu avec la technologie d'Ubisoft pour les barks). Les studios qui n'ont pas le budget nécessaire pour payer les auteurs afin de fournir un grand nombre de lignes de dialogues différentes pourront toutefois se tourner, si le tarif reste accessible, vers ce type de solution.