Cum se schimbă jocurile video cu ajutorul AI-ului: Nvidia se axează pe inteligența artificială
NVIDIA a dezvăluit tehnologia numită Avatar Cloud Engine (ACE) care le-ar permite jucătorilor să vorbească în mod natural cu personajele nejucabile (NPC) și să primească răspunsuri adecvate.
Nvidia tocmai a anunțat ACE for Games la keynote-ul Computex, o versiune a Omniverse Avatar Cloud Engine, pentru a anima și a da voce NPC-urilor din joc în timp real.
CEO-ul Jensen Huang a explicat că ACE for Games integrează text-to-speech, înțelegerea limbajului natural – sau, în cuvintele lui Huang, „practic un model de limbaj mare” – și animator facial automat. Toate sub umbrela ACE.
În esență, un NPC creat de AI va asculta contribuția unui jucător, de exemplu, punând o întrebare NPC-ului, apoi va genera un răspuns în caracter, va spune acel dialog cu voce tare și va anima chipul NPC-ului așa cum îl spune.
De asemenea, Huang a prezentat tehnologia într-o demonstrație în timp real creată în Unreal Engine 5 cu startup-ul AI Convai. Este plasat într-un cadru cyberpunk și arată un jucător care intră într-un magazin de ramen și vorbește cu proprietarul. Proprietarul nu are dialog scris, dar răspunde la întrebările jucătorului în timp real și îl trimite într-o misiune improvizată.
Poți viziona singur demo-ul mai jos.
Este destul de impresionant și, fără îndoială, o privire asupra modului în care jocurile pot utiliza această tehnologie în viitor. După cum a spus Huang, „AI va fi o parte foarte mare a viitorului jocurilor video”.
Jocurile video se schimbă
Desigur, el ar spune asta. Nvidia este compania cea mai predispusă să câștige din cauza creșterii brusce a cererii de AI cu vânzările acceleratoarelor sale AI. Și am văzut deja câteva integrări de bază ale ChatGPT în jocuri. Dar această nouă platformă ACE pare mult mai rafinată și mai corectă în timp real.
Ceea ce nu știm este de ce a fost nevoie pentru a rula demo-ul ACE pentru jocuri, doar că rula și ray tracing și DLSS. Ar putea avea nevoie de mai mult decât o placă video clasică pentru a rula chiar acum sau de o componentă bazată pe cloud. Huang a fost ușor evaziv în privința detaliilor, dar sunt sigur că vom auzi mai multe despre acest instrument, deoarece unele jocuri fac de fapt mișcări pentru a-l folosi.
„Rețelele neuronale care permit NVIDIA ACE for Games sunt optimizate pentru diferite capacități, cu diferite dimensiuni, performanțe și compromisuri de calitate. Serviciul de turnătorie ACE for Games va ajuta dezvoltatorii să ajusteze modelele pentru jocurile lor, apoi să le implementeze prin NVIDIA DGX Cloud, PC-uri GeForce RTX sau la locație pentru inferențe în timp real”, spune Nvidia.
„Modelele sunt optimizate pentru latență — o cerință critică pentru interacțiuni captivante și receptive în jocuri.”
Până acum, Nvidia a confirmat două jocuri care utilizează componenta tehnologică de animație facială a ACE for Games, numită Audio2Face. Asta e S.T.A.L.K.E.R. 2: Heart of Chernobyl și Fallen Leaf, dar sperăm că vom obține câteva exemple ale întregii platforme combinate.