Na topie

Czego sztuczna inteligencja może nauczyć się podczas partyjki w Quake’a?

Autor:

Szef strefy Ciekawostki

więcej artykułów ze strefy:
Ciekawostki

Kategoria: Ciekawostki Nauka Tematyka: DeepMind sztuczna inteligencja

Ekipa DeepMind (czyli ojcowie AlphaGo – pogromcy mistrzów w Go) teraz postanowiła skoncentrować się na grach wideo. Doszła bowiem do wniosku, że z rozgrywki może płynąć ważna nauka.

  • Czego sztuczna inteligencja może nauczyć się podczas partyjki w Quake’a?
A A

Niespełna rok temu pisaliśmy, że sztuczna inteligencja to świetny gracz. Nie bez podstaw, bo bot stworzony przez OpenAI bez większych problemów wygrał pojedynek z jednym z najlepszych graczy w Dota 2. Inny znany zespół naukowców – DeepMind – doszedł do wniosku, że gry w ogóle mogą być przydatne, na przykład do trenowania SI.

Sztuczna inteligencja jak człowiek

Rozwój sztucznej inteligencji sprawia, że gry wideo są coraz lepsze, choćby w taki sposób, że sterowani przez „komputer” bohaterowie zachowują się bardziej realistycznie. DeepMind – czyli zespół, który zasłynął z ogrania mistrzów Go – postanowił pójść o krok dalej i wytrenować SI tak, by zachowywała się jak człowiek (co przy okazji może zaowocować poszerzeniem wiedzy na temat samej technologii). 

Wykorzystali (zmodyfikowaną graficznie) grę Quake III: Arena, a konkretnie tryb Capture the Flag. Trenowali boty (a właściwie agentów) w taki sposób, by uczyły się znanych strategii i dostosowywały je do aktualnie panujących warunków na mapie, ale też by współpracowały z pozostałymi członkami drużyny.

...próbuj tak długo, aż osiągniesz cel

„Nasi agenci musieli uczyć się od zera tego, jak patrzeć, działać, kooperować i rywalizować w nowym środowisku”, czytamy na blogu. Naukowcy nie podpowiadali sztucznej inteligencji, co robi dobrze, a co powinna poprawić – otrzymywała ona tylko informacje, czy mecz był wygrany czy też przegrany, a reszty musiała domyślić się sama.

Innymi słowy: sztuczna inteligencja nie znała reguł gry. Wiedziała tylko, że ma osiągnąć dany cel i zmieniała swoje zachowanie tak długo, aż do tego doprowadziła.

Jakie są wnioski po eksperymencie? Po pierwsze: agenci wygrywają częściej niż ludzie (co nie powinno dziwić, ponieważ udało się osiągnąć powtarzalność). Po drugie: wykazują większe nastawienie na współpracę. Naukowcy wspominają również, że SI przyswoiła kilka typowo ludzkich zachowań, takich jak kampienie.

Ile gier musiała rozegrać, by się tego nauczyć? Nieco ponad 100 tysięcy, by osiągnąć poziom przeciętnego człowieka i niespełna 200 tysięcy, by zacząć pokonywać dobrych graczy. 

Jaki jest w ogóle cel takich eksperymentów?

Chodzi o to, by sztuczna inteligencja nauczyła się dostosowywać do rozmaitych środowisk, w jakich się znajduje. By umiała czerpać naukę z obserwacji innych, jak i wyciągać wnioski z podejmowanych przez siebie działań, ale też by potrafiła z pozostałymi współpracować.

„Pierwszoosobowe gry dla wielu graczy są najpopularniejsze, ponieważ są bardzo wciągające, ale też wymagające – w zakresie taktyki, koordynacji ręka-oko i gry zespołowej. Ta złożoność sprawia, że są też dobrym środowiskiem do badań związanych z SI” – czytamy w tym samym wpisie. Zainteresowanych szczegółami odsyłamy zaś do pełnej publikacji [PDF]

Źródło: DeepMind, Engadget. Foto: dawnydawny/Pixabay (CC0)

Odsłon: 3730 Skomentuj newsa
Komentarze

7

Udostępnij
  1. Ciekawski_
    Oceń komentarz:

    5    

    Opublikowano: 2018-07-14 16:16

    Może za jakiś czas gry będą wyzwaniem dla ambitniejszych a nie tylko niedzielnych graczy. A poziom trudności nie będzie zależał od zwiększenia/zmniejszania statystyk botowi/graczowi.

    Skomentuj Historia edycji

    1. Nullmaruzero
      Oceń komentarz:

      2    

      Opublikowano: 2018-07-14 17:26

      Taaa, będą suwaki gdzie będziemy ustawiać IQ (i może poziom doświadczenia) botom :D

      Skomentuj

      1. owatanka
        Oceń komentarz:

        0    

        Opublikowano: 2018-07-15 12:46

        Boty w unrealu tez kampily :( ale ta wygrana z graczem w dota 2 to byla taka ustawiona bo bot widzial cala mape oraz gra odbywala sie tylko na srodku mapy i niemogl isc ani razu na jungle czy chowac sie w krzakach...

        Moze i bot sie uczy zachowan ale narazie nie wymysla swoich wlasnych strategi tylko uzywa juz wyuczonych nie wiem czy to mozna nazwac inteligencja , inteligencja to raczej umiejetnosc nabycia doswiadczenia i umiejetne uzycie tej umiejetnosci w zaleznosci od sytuacji.
        W dota czlowiek grajac na dole mapy bedzie juz wiedzial jak grac na srodku czy na topie niestety SI musi ograc wszystkie miejsca aby sie tego nauczyc.

        Skomentuj

  2. DreamerDream
    Oceń komentarz:

    4    

    Opublikowano: 2018-07-14 18:46

    Czy przypadkiem już nie były takie eksperymenty z A.I. w Quake 3? Coś mi świta takiego.

    BTW.Ciekawszy eksperyment byłby w jakiejś bardziej złożonej grze strategicznej i zobaczenie jak by wyglądała historią stworzona przez a.i. ;p

    Skomentuj Historia edycji

    1. owatanka
      Oceń komentarz:

      2    

      Opublikowano: 2018-07-15 12:53

      Czytalem artykol moze nawet o tym samym o czym wspominasz , tam byla prosta gra ekonomiczna po wielu pokoleniach botow AI zaczelo ucsiskac inne AI oraz podzegac przeciwko sobie , zaczela prowadzic polityke zastraszenia doprowadzilo to tez do wojny na wyniszczenie.

      Skomentuj

    2. rlistek
      Oceń komentarz:

      0    

      Opublikowano: 2018-07-15 20:18

      .

      Skomentuj Historia edycji

  3. xchaotic
    Oceń komentarz:

    0    

    Opublikowano: 2018-07-15 22:17

    SI przyswoiła kilka typowo ludzkich zachowań, takich jak kampienie.

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!