9. Januar 2025 – aaronchristokreuz

Die Zukunft des Gamings? NVIDIAs neue KI-Technologien revolutionieren die Spielewelt

Im Rahmen der CES 2025 hat es sich NVIDIA nicht nehmen lassen, die Bedeutung von Künstlicher Intelligenz auch für Games hervorzuheben. Mehr KI-gestützte Interaktion mit NPCs könnte schon bald drastische Veränderungen einleiten.

Dank neuer KI-Technologien von NVIDIA wird das Spielerlebnis bald noch intensiver. Mit den folgend vorgestellten Innovationen können Spiele realistischer, immersiver, interaktiver und abwechslungsreicher gestaltet werden. Von individuellen, über Sprachbefehle gesteuerte Anpassungen, realistisch wirkende, kommunikative NPCs bis hin zu beeindruckenden und automatisierten Lippensynchronisationen. Die vorgestellten Tools können die Art und Weise, wie wir in Spielewelten eintauchen grundlegend verändern. Drei Videos zeigen, was schon jetzt begrenzt möglich ist - und sie sind ein Vorzeichen von dem, was uns in Zukunft erwarten wird.

Ingame-Individualisierungen und KI-gesteuerte NPC-Kommunikation

Im Spiel ZooPunk demonstriert NVIDIA wie KI-Sprachbefehle Spielerinnen und Spielern völlig neue Möglichkeiten im Umgang mit Nicht-Spieler-Charakteren bieten und wie beispielsweise zukünftig die persönliche Individualisierung von Objekten oder Items im Spiel aussehen kann. NPCs reagieren nicht nur auf Sprachkommandos, sondern verstehen komplexe Anweisungen und handeln entsprechend. Das sorgt für eine dynamische, auf die Spieler zugeschnittene Welt, die sich wie von selbst weiterentwickelt. Das System sorgt für eine tiefere Immersion und gibt Spielern mehr Kontrolle und zeigt Wege auf, wie Gamer zukünftig selbst mehr Einfluss auf eine Spielwelt nehmen.

AI People: NPCs mit Eigenleben

AI People zeigt, wie Spieler ihre eigenen NPCs erstellen, die sich mehr oder weniger frei und eigenständig verhalten - auf Basis von KI-Daten/-techniken, die entweder lokal oder in einer Cloud gespeichert sind. Diese Charaktere entwickeln sich weiter, treffen eigene Entscheidungen und interagieren mit anderen NPCs. Spieler können Charaktere gestalten, die in der Welt ein echtes Eigenleben führen, anstatt einfach nur vordefinierte Wege abzulaufen und ständig die gleichen Sprachfetzen abspulen. So entsteht eine dynamische, lebendige Welt, die sich dem individuellen Spielstil anpasst und auf die Spielerwünsche reagiert. Diese Technologie gewährleistet nicht nur eine tiefere Immersion, sondern sorgt auch für mehr Interaktion und Flexibilität im Gameplay.

Realistische Lippensynchronisation mit Audio2Face

Die Audio2Face-Technologie macht Gesichter von NPCs noch realistischer. Am Beispiel von Alien Rogue Incursion zeigt NVIDIA, wie Charaktere basierend auf gesprochenen Texten ihre Lippenbewegungen nahezu perfekt und automatisiert anpassen. Dadurch wirken Dialoge glaubwürdiger und sie ziehen Spieler mitunter auch emotional mehr in Geschichten hinein. Dieses Verfahren für verbesserten Realismus macht Games nicht nur besser und authentischer - sie spart Entwicklern auch Zeit. Vor allem in storylastigen Spielen könnte Audio2Face einen großen Unterschied machen. Wie das funktioniert, erklärt das Video.

Wie seht ihr die technischen Entwicklungen? Könnt ihr euch vorstellen, dass ihr euch über ein Mikro so richtig mit NPCs unterhaltet und längere Konservationen führt? Für noch mehr Immersion in VR-Spielen ist das mit Sicherheit eine große Sache. Aber reizen euch die vorgestellten Technologien auch wenn es um herkömmliche Flachbild-Games geht? Schreibt es in die Kommentare!

Score: 1
0 Kommentare

Meine Tools

Beitrag melden

Shortlink: https://gplnk.com/383843