Pięciu studentów Politechników Krakowskiej postanowiło sprawdzić, czy sztuczna inteligencja jest w stanie potajemnie pomagać w zwycięstwach z żywymi graczami w sieciowych strzelaninach. Wyniki są bardzo zastanawiające.
Studenci czwartego roku informatyki na Wydziale Informatyki i Telekomunikacji Politechniki Krakowskiej – Mateusz Fudala, Mikołaj Munik, Karol Gacoń i Marcin Fortuna – stworzyli oprogramowanie AI do wspomagania celowania w grze Counter-Strike 2 i przetestowali je pod kątem skuteczności w walkach 1 na 1. Stworzyli bota, opartego na AI, który bierze udział w potyczkach ze wspomaganiem celowania, działającego w formie nakładki.
– Czyli nie ingeruje w wewnętrzne pliki oraz nie modyfikuje w przesyłane pakiety z danymi na poziomie komunikacji gracz-serwer, przez co jest prawie niewykrywalny – tłumaczy Mateusz Fudala, jeden z autorów oprogramowania.
Podstawą studenckiego rozwiązania była jednostka przetwarzająca dane pobierane z obrazu (a więc zrzuty ekranu z monitora) na symulowane ruchy myszką, która sama najeżdża na przeciwnika i oddaje strzał.
– Algorytmem AI, który dokonuje analizy obrazu jest model YOLOv11, a więc nowoczesne i szeroko przetestowane rozwiązanie do wykrywania obiektów w czasie rzeczywistym. Model został nauczony wyglądu postaci zarówno drużyny terrorystów, jak i antyterrorystów przy pomocy autorskiego zbioru danych. Tym sposobem osiągnęliśmy bardzo dobrą precyzję w wykrywaniu oraz lokalizacji graczy podczas gry na danej mapie – mówi Mikołaj Munik z zespołu młodych programistów.

Testy były prowadzane w systemie starć 1 na 1. Studenci oszacowali, iż tylko w takich warunkach można w najlepszy sposób ocenić umiejętności gracza w starciu z ich botem AI. Dlatego zastosowano ograniczenie w postaci włączenia gry z flagami modyfikującymi uruchomienie, które bazowo blokowały możliwość wejścia na serwery z innymi graczami.
W testach wzięło udział 10 graczy z różnych przedziałów rankingowych – od 1000 do 25000 punktów (im więcej punktów, tym gracz był lepszy). – Z graczami z rankingiem poniżej 10000 punktów bot nie miał żadnych problemów. Dla graczy od 10000 do 15000 dwóm z czterech udało się wygrać cały mecz. Od 15000 w górę nasz bot już sobie nie radził. Pomimo iż czas reakcji sztucznej inteligencji był lepszy niż gracza, to aplikacja kliencka zarządzająca ruchem myszki i strzelaniem nie nadążała z przetwarzaniem danych dostarczanych przez algorytm – tłumaczy Karol Gacoń, także współautor rozwiązania.
Wyniki pokazały studentom, iż stosowanie AI do oszukiwania w grach sieciowych jest realnym zagrożeniem dla użytkowników. – Wykrywalność takiego systemu jest bardzo niska, a systemy wykrywające przestarzałe lub niestabilne – przyznaje Marcin Fortuna. – Aczkolwiek, nie można powiedzieć, iż branża chowa głowę w piasek i nie reaguje. Coraz częściej widuje się mechaniki zwalczające oszustów oparte na analizie behawioralnej, takie jak VACnet czy Battleye, które analizują dane telemetryczne: szybkość celowania, precyzję, czas reakcji czy schematy ruchów postaci. Głównym problemem AI jest to, iż często posiada nieludzkie wzorce zachowania, które da się statystycznie wyłapać – dodaje.
Mimo to, zdaniem studentów szanse na 100% wykrywanie tego typu procederów są w tej chwili znikome. Wprawdzie nie ma dokładnych metryk badających wykrywalność stosowania AI w grach sieciowych, ale algorytmy sztucznej inteligencji operują z zewnątrz „oglądając” ekran i uczą się coraz to nowszych zachowań, coraz skuteczniej imitując żywych graczy. To sprawia, iż są trudniejsze do wykrycia od tradycyjnych oszustw modyfikujących rozgrywkę na korzyść oszusta, czyli tzw. cheatów. Co gorsza, wykorzystywanie sztucznej inteligencji w ten sposób nie zawęża się jedynie do gier typu FPS.
– Moglibyśmy używać AI do innych typów gier, aczkolwiek wymagałoby to użycia bardziej zaawansowanych algorytmów, które wpływałyby na różne obszary gry. W przypadku gier FPS lub TPS, można zwykle założyć, iż wyeliminowanie przeciwnego zespołu zagwarantuje nam wygraną. Jednak w przypadku np. gier MOBA [Multiplayer Online Battle Arena – gry strategiczne, które polegają na masowych bitwach wielu graczy jednocześnie – dop. red.] może się okazać, iż algorytm zawiedzie na innych płaszczyznach, takich jak ekonomia czy strategiczne przejmowanie mapy – mówi Mateusz Fudala.
Ponadto w sytuacji, kiedy zachodzi realne podejrzenie oszustwa z wykorzystaniem algorytmów sztucznej inteligencji, weryfikacja takiego zdarzenia jest trudna. – Jedyną legalną ścieżką, jaką może podjąć gracz, jest zgłoszenie podejrzanego do wewnętrznego systemu podczas rozgrywki. Aczkolwiek i na to są sposoby: na przykład automatyczne wychodzenie z gry i ponowne łączenie w momencie, gdy ktoś próbuje nas zgłosić – zaznacza Mikołaj Munik.
Studenci przyznają, iż analizując rozwój sytuacji na przestrzeni ostatnich kilku lat można stwierdzić, iż sytuacja poprawie nie uległa. – Uważam, iż dojdziemy w tym temacie do stabilizacji – tak jak zrobiliśmy to z klasycznymi cheatami. Ale zanim to się stanie minie jeszcze trochę czasu – konkluduje Karol Gacoń.
Czy są jakiekolwiek plusy ze stosowania sztucznej inteligencji w rozgrywkach gier komputerowych? Paradoksalnie tego typu badania mogą być skuteczne w zwalczaniu oszustw opartych o tożsame mechanizmy. – Wejście „w skórę” oszusta pomaga nam zrozumieć wewnętrzne procesy zachodzące w programie, znaleźć luki w oprogramowaniu czy też lepiej zrozumieć istotę działania systemu oszukującego – mówi Marcin Fortuna.
Są też inne zalety związane z produkcją nowych gier. Algorytmy AI pomagają tworzyć bardziej realistycznie światy poprzez emulowanie ludzkich zachowań w postaciach sterowanych przez system. Zachowania te obejmują nie tylko codzienne działania znane z rzeczywistości – jak praca, szkoła, czas wolny (w grach typu open world), ale też dynamiczną komunikację werbalną i niewerbalną zależną od komunikatów graczy. Automatyczne programowanie wirtualnego świata w ten sposób oszczędza ogromne nakłady czasu i pieniędzy, które byłyby konieczne przy robieniu tego manualnie – od postaci do postaci i od zachowania do zachowania.
Projekt “Sztuczna inteligencja na celowniku, czyli nowe podejście do oszukiwania w grach komputerowych” powstał z inicjatywy studentów w ramach aktywności Studenckiego Koła Naukowego GENESYS PK, którego opiekunem jest dr inż. Wojciech Książek z Katedry Informatyki na Wydziale Informatyki i Telekomunikacji Politechniki Krakowskiej. Do stworzenia bota młodzi naukowcy korzystali z wielu źródeł i publicznych repozytoriów na platformie open source – Github.