Nvidia ACE: Startschuss für die Ära der intelligenten NPCs? Echte Innovation auf dem Vormarsch
Strohdumme NPCs waren gestern!
Mit der Avatar Cloud Engine, kurz ACE, hat Nvidia vor knapp zwei Jahren auf der Fachmesse Computex ein Paket aus KI-Werkzeugen vorgestellt, die Entwicklern helfen sollen, besonders glaubhafte, digitale Nichtspieler-Charaktere zu erstellen. Mittlerweile gibt es eine ganze Reihe an Games-Projekten, welche ACE auf sehr unterschiedliche Weise nutzen und damit in der Spielebranche vielerorts für Aufsehen sorgen. Doch wie genau funktioniert ACE überhaupt? Welchen Nutzen hat die Technik und welche Spiele-Highlights befinden sich bereits in Entwicklung? All das und mehr erfahrt ihr in diesem Feature.
Fragt man Games-Historiker nach dem ersten Computerspiel mit Nichtspieler-Charakteren (NPCs), fällt meist ein Name: Colossal Cave Adventure. Das von Will Crowther entwickelte Text-Adventure erschien 1976 für den Großrechner PDP-10 und erlaubte es Spielern, über simple Textbefehle – die dann ein sogenannter Parser auswertete – mit der Umgebung und anderen Charakteren zu interagieren. Seither haben sich NPCs massiv weiterentwickelt und mittlerweile fast schon lebensechte Züge angenommen. Die Betonung liegt auf „fast“, denn selbst in Rollenspiel-Meilensteinen wie Baldur’s Gate 3 oder Cyberpunk 2077 sind von den Entwicklerstudios erdachte Multiple-Choice-Dialoge die Grundlage für jedwede NPC-Kommunikation. Doch wie könnten die NPCs der Zukunft aussehen? Einen ersten Vorgeschmack darauf geben zahlreiche Spiele, die Gebrauch von Nvidias Avatar Cloud Engine machen.
Totes Fleisch
Eines der derzeit wohl vielversprechendsten Projekte mit ACE-Unterstützung stammt vom britischen Indie-Duo Meaning Machines und hört auf den Namen Dead Meat. In diesem Murder-Mystery-Thriller verkörpert ihr einen Privatdetektiv, der einen verzwickten Mordfall aufklären muss. Die Handlung dreht sich im Kern um eine Frau namens Lucia. Sie steht in engem Verdacht, ihren Ehemann Titus ermordet zu haben. Eure Aufgabe besteht nun darin, in einem Verhör ein Geständnis aus ihr herauszukitzeln – und zwar bevor ihre Anwälte eintreffen. Wie ihr vorgeht und welche Fragen ihr stellt, ist dabei komplett euch überlassen, denn fest vorgegebene Dialogoptionen gibt es hier nicht.

Vielmehr stellt ihr per Text- oder Spracheingabe Fragen oder trefft Aussagen, die dann zunächst von einem ACE-Sprachmodul in Text übersetzt werden. Letzterer wird von einem sogenannten Small Language Modell analysiert und ausgewertet, woraufhin das Spiel ohne merkliche Verzögerung eine zur Frage oder zum Statement passende, gesprochene Antwort ausspuckt - ähnlich wie man das von ChatGPT und Co. kennt.
Damit das Ganze auch spielmechanisch funktioniert, erdachten die Entwickler ein futuristisches Werkzeug namens „Mind Reader 3000“. Es ist in allen Dialogen stets aktiv und zeigt euch an, was die befragte Person gerade denkt und wie sie sich fühlt. Dies wiederum versetzt euch in die Lage, Hinweise aufzuschnappen, das Gespräch gezielt in bestimmte Richtungen zu lenken, Emotionen beim Gegenüber zu triggern und euch so Stück für Stück an die Wahrheit heranzutasten.
Geht's nach dem KI-erfahrenen Entwickler-Duo, hält der Plot rund um machthungrige Milliardäre verschiedene Storypfade bereit, konfrontiert euch mit mehr als 15 Verdächtigen und lässt sich auf ganz unterschiedliche Weise lösen. Neben gezielter Manipulation, Überzeugung durch Argumente und heftiger Bedrohung soll es beispielsweise auch möglich sein, den Täter durch Verführung zum Reden zu bringen.
Die Entwickler ordnen Dead Meat übrigens liebevoll dem selbst ernannten Genre der „First Person Talker“ zu und versprechen einen nicht zu unterschätzenden Wiederspielwert. Gleichzeitig betonen sie, dass ihr angepasstes, in Zusammenarbeit mit Nvidia optimiertes Small Language Modell so leistungsfähig ist, dass es keine Daten aus der Cloud benötigt. Sämtliche Berechnungen werden von der RTX GPU durchgeführt.
Wie viel Potenzial in Dead Meat steckt, deuten zudem erste Playtests auf Messen wie der EGX in London an, wo sich förmlich Menschentrauben um die Hands-on-Rechner bildeten. Aber auch andere Entwickler halten bereits große Stücke auf Dead Meat und ehrten den Titel auf der Messe Develop mit dem People's Choice Award 2024.
Clevere KI als Sidekick
Ein weiteres vielversprechendes Spiel mit ACE-Unterstützung ist der First-Person-Shooter Black Vultures: Prey of Greed von WeMade, den wir erstmals auf dem Nvidia Creator Day am 24. März 2025 in München in Aktion erlebten. Die Techdemo zeigt zwei Söldner, die sich vorsichtig durch ein Kriegsgebiet bewegen und dabei in Echtzeit Analysen und Tipps von einer sprechenden KI namens Viper erhalten.

Entdeckt Viper beispielsweise Feinde in eurer Nähe, erhaltet ihr nicht nur Hinweise zur Art der Bedrohung (Panzer, Drohne, Infanterie, etc.) sondern auch darüber, wie ihr in der aktuellen Situation am besten vorgeht. Zugegeben, das kennt man von anderen Shootern, hier jedoch wirkt es nicht geskriptet und perfekt auf die Situation zugeschnitten. Besser noch: Ihr könnt jederzeit per Spracheingabe – die erneut mittels dem Small Language Modell von ACE ausgewertet wird – mit Viper kommunizieren.
Fordert ihr beispielsweise Hilfe an, während gerade eine Drohne hinter euch her ist, sagt euch Viper ganz genau, wohin ihr flüchten sollt. „Beweg dich hinter das Haus. Sechs Uhr, mach doppelt so schnell. Bewegung!“ Neben der Bereitstellung von Hinweisen, Routen und Situationsreports kann Viper auch Feinde markieren. Obwohl Nvidia bisher nur ein Video der Techdemo zeigte, versicherte uns Mitarbeiter Michele Gennari, dass nichts in der Demo geskriptet ist.
ACE-optimiertes Battle-Royale-Erlebnis
In eine ähnliche Kerbe schlägt das derzeit in Entwicklung befindliche ACE-Update von PUBG: Battlegrounds. Langfristiges Ziel der Macher ist es, den Battle-Royale-Hit durch eine wesentlich verbesserte Partner-KI aufzuwerten, die in der Lage ist, Sprachbefehle zu verstehen. Auch hier illustriert ein hipper Trailer, was Entwickler Krafton plant. So können Spieler die KI zum Beispiel bitten, Ausschau nach bestimmten Ausrüstungsgegenständen, Munitionsarten oder Vehikeln zu halten. Hat der KI-Begleiter das gewünschte Objekt lokalisiert, markiert er die Position auf der Karte und weist euch akustisch auf den Fundort hin.

Im Falle von Fahrzeugen zwängt sich der KI-Partner sogar hinters Steuer und legt einen eleganten Powerslide hin, damit ihr direkt einsteigen könnt. Kommt es zum Feindkontakt während ihr Loot aufsammelt, soll die KI laut Entwickler Krafton darüber hinaus selbstständig Feuerschutz geben. Stellt ihr hingegen die Anfrage, den Gegner zu flankieren, prüft die KI die Erfolgsaussichten und prescht vor, wenn das Manöver erfolgversprechend ist. Krafton selbst nennt die mit ACE erstellten Sidekicks übrigens CPCs (Co-Playable Characters) und will sie noch 2025 einführen.
Asterion: Der ultimative Endgegner?
Andere Studios wiederum nutzen ACE, um Bosskämpfe aufzupeppen und Spieler:innen mal ordentlich ins Schwitzen zu bringen. Paradebeispiel hierfür ist eine auf der CES 2025 veröffentlichte Techdemo zum Online-Rollenspiel MIR 5 von WEMADE. Darin stellt sich eine 5-köpfige Gruppe aus Abenteurern einer drachenähnlichen Kreatur namens Asterion: Lord of the Void entgegen. Das Besondere an diesem Showdown: Asterion folgt nicht – wie man dies von heutigen MMO-Bossen kennt – fest vorgegebenen Verhaltensmustern, sondern analysiert die Situation jedes Mal aufs Neue, berücksichtigt Erfahrungen und Fehler aus vorherigen Kämpfen und nutzt dieses Wissen, um zu gewinnen. Die dafür benötigte Rechenpower stellt in der Demo eine RTX 5090 Grafikkarte zur Verfügung.

Rückt eine Party beispielsweise mit einer Heilerin an, würde Asterion versuchen, diese zuerst zu eliminieren, um zu verhindern, dass sie Verwundete kurieren kann. Auch soll Asterion dank ACE in der Lage sein, neue Angriffsmuster zu entwickeln, um die Fähigkeiten bestimmter Charaktere gezielt auszuhebeln. Im bisher veröffentlichten Material ist unter anderem zu sehen, wie die Bestie plötzlich zum Sprung ansetzt, kraftvoll hinter der Party landet, den Schutzschild tragenden Tank-Charakter auf diese Weise zu Fall bringt und mit einem gebündelten Feuerstrahl nachsetzt.
Den Boss zwei Mal mit der gleichen Strategie zu besiegen, soll laut WEMADE übrigens nicht möglich sein. Klingt zweifelsohne faszinierend, muss sich in der Praxis allerdings noch beweisen. Abzuwarten bleibt vor allem, wie gut und fair die Entwickler das Balancing am Ende hinbekommen. Denn mit irgendwann nicht mehr zu besiegenden Bossen ist natürlich niemandem geholfen.
Raumschiff-Individualisierung mal anders
Abschließend möchten wir noch einen kurzen Blick auf Zoopunk vom chinesischen Entwickler TiGames werfen. Das Team aus Shanghai spendierte uns im Oktober 2021 den gelungenen 2,5D Metroidvania-Action-Plattformer F.I.S.T.: Forged in Shadow Torch und werkelt nun am ersten 3D-Action-Abenteuer rund um das kampferprobte Kaninchen Rayton. In einer ersten, grafisch durchaus eindrucksvollen Techdemo sehen wir, wie das menschenähnliche Hasenwesen per Schwebebike an einem riesigen Luftschiff namens Tron’s Kitchen andockt und dort mit einem NPC namens Buck in Kontakt tritt.
Der nun folgende Dialog mit dem Bordmechaniker Buck wird wie zu erwarten komplett per Sprachsteuerung vorangetrieben. Das sogenannte Riva Sprachanalyse Modell wertet dabei die Eingaben des Spielers aus und übersetzt die Worte in Text, der dann wiederum von einem Small Language Modell analysiert und verarbeitet wird. Gleichzeitig kümmert sich ein weiteres ACE-Modul namens Audio2Face darum, dass die Mimik der NPCs zur gerade wiedergegebenen, KI-generierten Sprachausgabe passt. Auch hier gilt: Sämtliche KI-Berechnungen werden bei der Zoopunk-Techdemo lokal mit Hilfe einer aktuellen RTX GPU der 50er-Reihe durchgeführt. Ein Datenaustausch mit der Cloud ist nicht erforderlich.

Doch zurück zum Plausch mit dem Bordmechaniker. Nach einem freudigen Hallo und einer herzlichen Begrüßung präsentiert Buck euch ein gerade fertiggestelltes Landungsschiff, das ihr nun optisch nach euren Wünschen anpassen dürft. Der Clou: Individualisiert wird nicht per Maus und Schieberegel, sondern vielmehr, indem Spielerinnen und Spieler einfach ihre Wünsche zu Hintergrundfarbe, Muster, Kennzeichen und Logo ins Mikrofon sprechen – den Rest erledigt die KI. Zugegeben, die Idee ist klasse und auch visuell können sich die KI-generierten Hintergründe und Motive durchaus sehen lassen. Schade nur, dass sich der Umlackieren-Prozess in der Demo noch ganz schön in die Länge zieht. Bis eine Drohne den aktuellen Lack entfernt und den neuen aufgetragen hat, vergehen knapp 19 Sekunden.
Ausblick
Obwohl viele Titel mit ACE-Support noch nicht marktreif sind, wird schon jetzt deutlich, wie massiv sich Spielerfahrungen dank fortschrittlicher KI in den nächsten Jahren verändern werden. Sidekicks werden aufmerksamer, Bosse smarter, Kämpfe unberechenbarer, Individualisierungs-Tasks einfacher und Geschichten dank dynamischer Dialoge (hoffentlich) noch spannender und unvorhersehbarer. Dies wiederum dürfte zur Folge haben, dass sich nach und nach neue Subgenres – Stichwort First Person Talker – herausbilden, die der gesamten Branche neue Impulse verleihen. Nichtsdestotrotz sollte man die Schattenseiten der KI-Revolution weiterhin sehr genau im Auge behalten. Die Bandbreite reicht dabei von Balancing-Problemen über Datenschutz- und Urheberrechtsfragen bis hin zu unerwünschtem KI-Feedback, wenn Daten falsch ausgewertet und interpretiert werden.


Post A Comment:
0 comments: