Tänk på din favorit animekaraktär. Föreställ dig deras unika drag, fängslande berättelser och minnesvärda prestationer av röstskådespelare. Du kanske omedelbart tänker på Astarion från Baldur’s Gate 3, som gavs liv av den talangfulle Neil Newbon, som nyligen vann det prestigefyllda Best Performance-priset på Game Awards 2023. Eller så vandrar dina tankar till Link från The Legend of Zelda-serien, en karaktär som har haft en speciell plats i ditt hjärta under åren, trots att han aldrig uttrycker ett enda ord.
Det är viktigt att erkänna att varje del du älskar hos dessa karaktärer noggrant utformats av ett team av författare, konstnärer och skådespelare som kombinerade sina exceptionella talanger för att ge liv åt dessa hjältar, skurkar och medhjälpare. I ett försök att återskapa den kreativa processen bakom dessa inflytelserika karaktärer, samarbetade Nvidia, en välkänd tillverkare av högpresterande grafikkort för datorer, med AI-teknologiföretaget Convai förra året för att introducera Omniverse Avatar Cloud Engine, en AI-driven NPC-generator. Men den lever inte upp till förväntningarna.
The Verge publicerade nyligen ett upplysande samtal mellan deras seniorredaktör Sean Hollister och två NPCs från en spelbar demo som visades på CES 2024. Denna interaktiva demo, som tillhandahölls av Nvidia och Convai, lät användare samtala med karaktärer med sina egna röster medan AI-karaktärerna svarade i realtid. En karaktär, Jin, porträtterades som anställd på en ramen-restaurang, medan den andra, Nova, avbildades som en gäst sittande vid baren. Hollister påpekade att teknologin fortfarande har en lång väg att gå och pekade på brister i röster, ansiktsuttryck och kroppsspråk som misslyckas med att fånga autenticiteten som finns i handgjort arbete. Ändå drog han slutsatsen att integrationen av en sådan teknik i tv-spel är ofrånkomlig.
I teorin skulle denna innovation möjliggöra att utvecklare skapar spelkaraktärer utan behov av manusförfattning och inspelade prestationer. AI:n skulle dynamiskt generera svar baserat på spelarnas dialog. Men denna utveckling har väckt oro bland röstskådespelare, särskilt efter SAG-AFTRAs samarbete med teknologiföretaget Replica Studios, som möjliggör skapandet av AI-replikor av dessa skådespelares röster. Ändå, som beskrivet av Hollister, är Jin och Nova lite mer än ”effektiva generativa AI-chattbotar.” Deras begränsade förmågor begränsar dem till att samtala inom ramen för ramenshoppen. Medan de kan tänka sig den cyberpunkstad de bor i, nämner rån, företagskorruption och småbrott, blir det uppenbart att dessa karaktärer saknar prosans väsen, känslor och människolika egenskaper. Trots att AI lovar oändliga möjligheter och förbättrad interaktivitet förblir de utan genuin dialog bara algoritmer som försöker lura oss att tro på en verklighetstrogen värld.
Betydande ansträngningar har lagts ned på att skapa en simulering som känns äkta. Nyla Worker, Product Head på Convai, förklarade för The Verge att varje NPC besitter en distinkt etos, inklusive en karaktärsbeskrivning, kunskapsbas och personlighetsdrag som extroversion eller introversion. Dessa AI-drivna NPCs hämtar från en digital karaktärsark för att behålla sin roll utan att avvika. Dock tränar denna process helt enkelt en AI att härma en förbestämd arketypp och åberopa en person. De karaktärer vi håller kära har gjort en betydande effekt därför att de skapades av någon, inte för att en algoritm placerade dem framför oss med en genererad bakgrundshistoria. Författare, animatörer och skådespelare förser dessa karaktärer med en känsla av realism, vilket ger dem sina egna identiteter, ambitioner och drömmar.
Allt detta sker medan stora nedskärningar fortsätter att plåga spelbranschen bara under de första 19 dagarna av 2024. Denna nonchalans för arbetares välbefinnande och deras bidrag fortsätter då chefer vägrar göra lönesänkningar och istället utforskar alternativ såsom Nvidias teknologi för att snurra ut videospe lutan utan att investera i hantverket självt.