Narzędzia takie jak ChatGPT czy GitHub Copilot miały zdemokratyzować tworzenie oprogramowania – wystarczyło kilka zdań, aby otrzymać gotowy fragment kodu. Jednak dla zespołów utrzymujących otwarte projekty programistyczne szybka pomoc algorytmu coraz częściej zamienia się w powód do frustracji. Fala automatycznie wygenerowanych poprawek, pisanych przez osoby, które nie rozumieją ani działania projektu, ani samego kodu, blokuje kolejkę recenzji i zużywa cenny czas doświadczonych wolontariuszy.
Godot i otwarty kod: jak działa ekosystem
Silnik Godot to jeden z najpopularniejszych projektów open-source służących do tworzenia gier 2D i 3D. Kod źródłowy jest publiczny, a każdy chętny może zaproponować poprawkę lub nową funkcję w formie tak zwanego pull requestu. Zanim zmiana trafi do głównej gałęzi repozytorium, musi przejść wieloetapową weryfikację: od automatycznych testów ciągłej integracji po manualną ocenę przynajmniej dwóch doświadczonych recenzentów.
Ten model współpracy, charakterystyczny dla wolnego oprogramowania, pozwala rozwijać się projektowi szybciej, niż gdyby odpowiadało za niego wyłącznie wąskie grono etatowych programistów. Z drugiej strony wymaga silnego nadzoru jakości – nieprzemyślana zmiana może wprowadzić regresję lub utrudnić utrzymanie kodu w kolejnych latach.
Kiedy algorytm pisze, a człowiek recenzuje: skala problemu
Od końca 2022 roku opiekunowie Godota obserwują gwałtowny wzrost pull requestów, które noszą znamiona pracy wygenerowanej przez dużych modeli językowych (LLM). Według danych udostępnionych przez administratorów repozytorium, na początku bieżącego kwartału w kolejce wisiało ponad 4500 nieprzejrzanych zgłoszeń – o blisko 30% więcej niż rok wcześniej. Znaczna część tych zmian to niewielkie poprawki stylistyczne, nic nie wnoszące rekonstrukcje istniejących funkcji lub propozycje, które psują kompatybilność wsteczną.
Zidentyfikowanie autorstwa nie jest proste. Modele językowe nauczyły się na publicznie dostępnym kodzie, dlatego wygenerowane patterny składniowe przypominają te tworzone przez ludzi. Recenzenci zwracają uwagę na charakterystyczne sygnały: rozwlekłe opisy, brak spójności między komentarzem a implementacją czy niespójne formatowanie. Nawet jednak doświadczony programista potrzebuje kilkunastu minut, żeby taką zmianę ocenić, a w skrajnych przypadkach – godzin na odtworzenie kontekstu.
Utracone godziny i zmęczone zespoły: perspektywa opiekunów
Rémi Verschelde, koordynator społeczności Godota, przyznaje, że „napływ wygenerowanych automatycznie propozycji obniża morale i sprawia, że recenzenci odkładają w czasie pracę nad realnie potrzebnymi funkcjami”. W podobnym tonie wypowiada się twórca gry Hidden Folks, Adriaan de Jongh, który kilka razy próbował przejrzeć część zgłoszeń: „Przez setki wątków przewijają się poprawki, które niczego nie naprawiają i często nawet się nie kompilują – to czysta strata energii.”
Zmęczenie dotyka szczególnie wolontariuszy. W przeciwieństwie do inżynierów pracujących w dużych firmach nad zamkniętymi projektami, recenzenci Godota robią to po godzinach, najczęściej bez finansowego wynagrodzenia. Każda niepotrzebna interwencja skraca czas, który mogliby poświęcić na mentoring nowych kontrybutorów czy implementowanie kluczowych usprawnień jak wsparcie Vulkan czy ulepszony system animacji.
Czy sztuczna inteligencja może pomóc naprawić zamieszanie?
Paradoksalnie, to właśnie AI może zostać zaprzęgnięte do ograniczenia problemu, który sama współtworzy. Zespoły takie jak TensorFlow czy Kubernetes już testują mechanizmy automatycznej klasyfikacji zgłoszeń, które oznaczają najprostsze poprawki labelką „needs-triage-bot” i odrzucają typowe „dupki” w stylu zmiany pojedynczego przecinka. W Godocie trwają wstępne rozmowy o podobnym filtrze – rozwiązanie analizowałoby metadane pull requestu, porównywało go z istniejącą historią commitów i automatycznie priorytetyzowało pilne błędy bezpieczeństwa.
Równolegle fundacja stojąca za projektem rozważa rozbudowanie zespołu recenzentów o płatne etaty finansowane z darowizn i grantów. Takie podejście sprawdziło się choćby w Blenderze, gdzie kilkunastu pełnoetatowych programistów czuwa nad jakością kodu, a społeczność koncentruje się na propozycjach nowych funkcji. „Profesjonalne zaplecze nie odbiera otwartości, za to pozwala utrzymać rygor jakości” – podkreślają menedżerowie podobnych inicjatyw.
Lekcje dla całego świata open source
Sytuacja Godota jest objawem szerszego zjawiska: tania, szybka i coraz lepiej dostępna generatywna AI przesunęła barierę wejścia w programowanie, ale nie usunęła konieczności rozumienia problemu, który próbujemy rozwiązać. Projekty utrzymywane społecznie potrzebują dziś jasnych wytycznych dotyczących korzystania z narzędzi LLM, a także środków na edukację nowych współtwórców. Bez wyważenia entuzjazmu innowatorów i cierpliwości doświadczonych opiekunów, nadmiar bezużytecznego kodu może zablokować rozwój nawet najlepiej rokujących inicjatyw.