Nauka

Czego sztuczna inteligencja może nauczyć się podczas partyjki w Quake’a?

przeczytasz w 2 min.

Ekipa DeepMind (czyli ojcowie AlphaGo – pogromcy mistrzów w Go) teraz postanowiła skoncentrować się na grach wideo. Doszła bowiem do wniosku, że z rozgrywki może płynąć ważna nauka.

Niespełna rok temu pisaliśmy, że sztuczna inteligencja to świetny gracz. Nie bez podstaw, bo bot stworzony przez OpenAI bez większych problemów wygrał pojedynek z jednym z najlepszych graczy w Dota 2. Inny znany zespół naukowców – DeepMind – doszedł do wniosku, że gry w ogóle mogą być przydatne, na przykład do trenowania SI.

Sztuczna inteligencja jak człowiek

Rozwój sztucznej inteligencji sprawia, że gry wideo są coraz lepsze, choćby w taki sposób, że sterowani przez „komputer” bohaterowie zachowują się bardziej realistycznie. DeepMind – czyli zespół, który zasłynął z ogrania mistrzów Go – postanowił pójść o krok dalej i wytrenować SI tak, by zachowywała się jak człowiek (co przy okazji może zaowocować poszerzeniem wiedzy na temat samej technologii). 

Wykorzystali (zmodyfikowaną graficznie) grę Quake III: Arena, a konkretnie tryb Capture the Flag. Trenowali boty (a właściwie agentów) w taki sposób, by uczyły się znanych strategii i dostosowywały je do aktualnie panujących warunków na mapie, ale też by współpracowały z pozostałymi członkami drużyny.

...próbuj tak długo, aż osiągniesz cel

„Nasi agenci musieli uczyć się od zera tego, jak patrzeć, działać, kooperować i rywalizować w nowym środowisku”, czytamy na blogu. Naukowcy nie podpowiadali sztucznej inteligencji, co robi dobrze, a co powinna poprawić – otrzymywała ona tylko informacje, czy mecz był wygrany czy też przegrany, a reszty musiała domyślić się sama.

Innymi słowy: sztuczna inteligencja nie znała reguł gry. Wiedziała tylko, że ma osiągnąć dany cel i zmieniała swoje zachowanie tak długo, aż do tego doprowadziła.

Jakie są wnioski po eksperymencie? Po pierwsze: agenci wygrywają częściej niż ludzie (co nie powinno dziwić, ponieważ udało się osiągnąć powtarzalność). Po drugie: wykazują większe nastawienie na współpracę. Naukowcy wspominają również, że SI przyswoiła kilka typowo ludzkich zachowań, takich jak kampienie.

Ile gier musiała rozegrać, by się tego nauczyć? Nieco ponad 100 tysięcy, by osiągnąć poziom przeciętnego człowieka i niespełna 200 tysięcy, by zacząć pokonywać dobrych graczy. 

Jaki jest w ogóle cel takich eksperymentów?

Chodzi o to, by sztuczna inteligencja nauczyła się dostosowywać do rozmaitych środowisk, w jakich się znajduje. By umiała czerpać naukę z obserwacji innych, jak i wyciągać wnioski z podejmowanych przez siebie działań, ale też by potrafiła z pozostałymi współpracować.

„Pierwszoosobowe gry dla wielu graczy są najpopularniejsze, ponieważ są bardzo wciągające, ale też wymagające – w zakresie taktyki, koordynacji ręka-oko i gry zespołowej. Ta złożoność sprawia, że są też dobrym środowiskiem do badań związanych z SI” – czytamy w tym samym wpisie. Zainteresowanych szczegółami odsyłamy zaś do pełnej publikacji [PDF]

Źródło: DeepMind, Engadget. Foto: dawnydawny/Pixabay (CC0)

Komentarze

7
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Ciekawski_
    5
    Może za jakiś czas gry będą wyzwaniem dla ambitniejszych a nie tylko niedzielnych graczy. A poziom trudności nie będzie zależał od zwiększenia/zmniejszania statystyk botowi/graczowi.
    • avatar
      DreamerDream
      4
      Czy przypadkiem już nie były takie eksperymenty z A.I. w Quake 3? Coś mi świta takiego.

      BTW.Ciekawszy eksperyment byłby w jakiejś bardziej złożonej grze strategicznej i zobaczenie jak by wyglądała historią stworzona przez a.i. ;p
      • avatar
        xchaotic
        0
        SI przyswoiła kilka typowo ludzkich zachowań, takich jak kampienie.