Twórcy gier mogą odetchnąć z ulgą. Nowa technologia Google to źródło wszystkiego, czego „nie mógłbyś sobie wyobrazić bez AI”, a nie alternatywa dla deweloperów

Podczas tegorocznej Game Developers Conference, która odbyła się 18–22 marca 2024 roku w Moscone Center w San Francisco, Google i jego zespół DeepMind zaprezentowali system Genie 3 – eksperymentalne narzędzie do proceduralnego budowania trójwymiarowych światów. Projekt ma wspierać kreatywność zespołów deweloperskich, a nie zastępować ich pracy. „Chcemy dać twórcom narzędzia do budowania doświadczeń, których nie dałoby się zaprojektować bez udziału sztucznej inteligencji” – podkreślił na scenie Alexandre Moufarek, odpowiedzialny w DeepMind za rozwój produktu.

Genie 3 w kontekście branży: między fascynacją a niepewnością

Automatyczna generacja treści od lat pojawia się w dyskusjach o przyszłości gamedevu. Do tej pory wykorzystywano ją głównie do powtarzalnych zadań – wypełniania terenu roślinnością czy losowego rozstawiania przedmiotów. Genie 3 idzie dalej: uczy się struktur świata na podstawie milionów próbek, a następnie w ciągu sekund syntetyzuje spójne krajobrazy 3D z oświetleniem, kolizją i nawigacją dla postaci niezależnych. Rozwiązanie wzbudziło entuzjazm, lecz równocześnie obawy, że sztuczna inteligencja może odebrać pracę level designerom, grafikom i scenarzystom. Google zaznacza jednak, że narzędzie traktuje się jako rozszerzenie pipeline’u produkcyjnego – ma skracać monotonne etapy pre-wizualizacji i pozwolić ludziom skupić się na stronach artystycznych projektu.

Zagłębiając się w technikę: jak działa silnik generatywny

Serce Genie 3 stanowi model dyfuzyjny, który analizuje dane geometryczne i fotorealistyczne tekstury, by odtworzyć je w nowych konfiguracjach. System utrzymuje spójność sceny przez około 70 sekund, zanim erozja drobnych szczegółów zacznie być widoczna dla gracza. W praktyce oznacza to, że deweloperzy mogą błyskawicznie zbudować rozbudowany prototyp lokacji, a następnie przejąć nad nią pełną kontrolę i doszlifować ręcznie. Technologia umożliwia również warstwowe zamrażanie fragmentów terenu – twórca może utrwalić np. układ miasta, a pozwolić AI na dalszą autonomiczną rozbudowę otaczającej dziczy.

SIMA 2 – agent odnajdujący się w otwartym świecie

Równolegle z Genie 3 zaprezentowano SIMA 2, uniwersalnego agenta, który uczy się interakcji w różnych tytułach sandboxowych. Podczas pokazu w grze No Man’s Sky potrafił odszukać statek kosmiczny, korzystając jedynie z komend tekstowych i obserwacji ekranu. Wewnątrz agenta działa wielomodalny transformer łączący analizę wideo z rozumieniem poleceń językowych. Choć zadania są wciąż proste, kierunek rozwoju wskazuje na możliwość tworzenia przyszłych NPC-ów reagujących na skomplikowane intencje gracza, a nawet wspierania testerów poprzez zautomatyzowane wykrywanie błędów w rozległych środowiskach.

Wpływ na codzienną pracę zespołów deweloperskich

Deweloperzy, z którymi rozmawialiśmy na targach, widzą w Genie 3 oszczędność czasu w fazie pre-produkcji i rapid prototypingu. Graficy środowiskowi mogą generować kilkanaście wariantów lokacji, a następnie wybrać najbardziej obiecującą i ręcznie ją udoskonalić. Z kolei designerzy narracji podkreślają, że algorytm nie konstruuje sensownych fabuł ani nie rozumie subtelnej dramaturgii, dlatego ich rola pozostaje kluczowa. „Naszym celem nie jest zastąpienie studiów deweloperskich, lecz rozszerzenie ich możliwości” – dodał Moufarek w kuluarach konferencji.

Ku sztucznej inteligencji ogólnej: perspektywy i wyzwania

DeepMind deklaruje, że prace nad Genie 3 i SIMA 2 są fragmentem większej strategii prowadzącej do AI zdolnej adaptować się do dowolnego kontekstu kreatywnego. Firma eksperymentuje z łączeniem modeli językowych, wizji komputerowej i symulacji fizyki w jednej architekturze. Największe wyzwania pozostają niezmienne: optymalizacja kosztów obliczeń, redukcja halucynacji oraz zagwarantowanie praw autorskich do wygenerowanych zasobów. Dopóki te bariery nie zostaną pokonane, rolą człowieka będzie weryfikacja jakości i kierowanie procesem twórczym. Obecna demonstracja udowadnia jednak, że narzędzia AI mogą już dziś przyspieszyć powstawanie gier, jednocześnie pozostawiając ostateczną odpowiedzialność i kreatywną kontrolę w rękach ludzi.