Nauka

Mówienie sztucznej inteligencji „dobra robota!”

z dnia 2017-07-01
Wojciech Kulik | Redaktor serwisu benchmark.pl
5 komentarzy Dyskutuj z nami

Jaki sposób na uczenie sztucznej inteligencji jest najlepszy? Obecnie istnieją dwie szkoły: jedną preferują Google i Elon Musk, drugą – Microsoft.

Ludzie uczą się bardzo efektywnie. Jesteśmy w stanie szybko opanować pewne czynności, ale niestety nie można tego samego powiedzieć o sztucznej inteligencji. Przynajmniej na razie.

„Inteligentne” oprogramowanie i roboty podczas nauki wykorzystują znaną też ludziom metodę prób i błędów. Testują różne sposoby realizacji zadania do tego momentu, aż wykonają je wzorowo. Jest tylko jeden problem: jak najlepiej powiedzieć sztucznej inteligencji, że zrobiła coś tak jak należy?

Odpowiedzi na to pytanie szukają trzy zespoły: współpracujące DeepMind (należący do Google) i OpenAI (założony przez Elona Muska) oraz niezależnie Maluuba (przejęty w tym roku przez Microsoft). Te pierwsze doszły do wniosku, że najlepiej jeśli człowiek będzie „pasterzem”, Maluuba zaś proponuje opracowanie systemu, który pozwoli SI lepiej zrozumieć sytuację bez udziału człowieka.

Czy DeepMind i OpenAI stawiają na zacofane metody? Nie, po prostu inaczej podchodzą do tematu. Otóż prowadzą eksperymenty, w których człowiek za każdym razem wybiera ten lepszy z dwóch filmów przedstawiających wykonanie zadania przez sztuczną inteligencję. Ta ostatnia stara się jednak przeanalizować to, by zrozumieć gdzie robi błąd i czego się wystrzegać. 


Film przedstawia prowadzenie do osiągnięcia celu: wykonania salta.
Tak robią to zespoły DeepMind i OpenAI.

Innymi słowy: dzięki takim eksperymentom sztuczna inteligencja ma zyskać umiejętność przewidywania, co ludzie oceniliby jako dobrze i bezpiecznie wykonane zadania. 

Należący do Microsoftu zespół Maluuba poszedł nieco inną drogą, a skuteczność swojego sposobu na uczenie sztucznej inteligencji udowodnił na przykładzie gry Pac-Man. Jego algorytmy osiągnęły maksymalną liczbę punktów, poprawiając dotychczasowy rekord czterokrotnie.

Jak to osiągnięto? Otóż na początku pani Pac-Man poruszała się losowo, nie znając planszy. Z czasem odkrywała, że można zdobywać nagrody i że trzeba unikać duchów. Sztuczna inteligencja wprowadziła więc małe algorytmy w interesujących ją miejscach, które wskazywały optymalny kierunek, aby pani Pac-Man zdobywała jak najwięcej punktów.

Łącznie stworzone zostały 163 algorytmy, które cały czas analizują sytuację na planszy i próbują odgadnąć, jak najlepiej się poruszać, by zdobyć wszystkie nagrody i uniknąć wszystkich przeszkód. Efekt – 100 proc. możliwych do zdobycia punktów – udało się, według zespołu Maluuba, osiągnąć właśnie dzięki rozproszeniu nauki na wiele mniejszych algorytmów.


Według zespołu Maluuba najlepszym sposobem na naukę
jest podzielenie materiału na dużo małych elementów.

Czyżby więc tutaj leżała odpowiedź na pytanie, jak powiedzieć sztucznej inteligencji „Dobra robota!”?

Źródło: Quartz, Microsoft, OpenAI. Foto: RobinHiggins/Pixabay (CC0)

marketplace

Komentarze

5
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Nie rozumiem tego zachwytu nad SI, w formie w której teraz się ją promuje. Jako budowanie ogromnej bazy danych na podstawie losowych zachowań, z których jakaś część prowadzi do "jako takiego" właściwego rezultatu. W miarę tzw "uczenia się" baza się ulepsza, ale czy to jest inteligencja? W moim odczuciu nie.

    Podejście MS właśnie ma większą elastyczność, jeśli algorytm sam będzie miał możliwość zmieniać siebie.
    Zaloguj się
  • avatar
    Sieci neuronowe i inne rozwiązania ML są wykorzystywane wbrew pozorom dość szeroko i sporo tych zastosowań to są właśnie takie drobiazgi jak automatyka, wykrywanie anomalii i podobne pierdoły realizowane za pomocą paru neuronów na krzyż, czy innych prostych metod statystycznych - bo pozwala to na osiągnięcie lepszych efektów w porównaniu do podejścia "jeśli to to tamto".
    Paradoksalnie, zagadnienia dotyczące rzeczy prostych dla ludzi jak motoryka, widzenie, słyszenie są trudne dla AI, więc niekoniecznie zgodzę się z twierdzeniem, że wykonanie przez obiekt 3D salta jest zagadnieniem prostym.
    Do nauki potrzebujesz danych - np. zdjęć wraz z tagami co zawierają (dziecko uczysz podobnie - zobacz to jest koń, to krowa itd...) Problem w tym, że to jest to również najbardziej kosztowny i problematyczny etap większości projektów AI. W uproszczeniu ML może coś tam robić (w tym przypadku salta) a trener ma jej mówić czy rezultat jest zgodny z oczekiwanym. Cały bajer o którym mowa w artykule, to użycie 2 systemów ML zamiast jednego. Dodatkowy system mówi pierwszemu, czy już "fikołek" który został przez niego wykonany zakończył się bezpiecznie, czy też złamany został cyfrowy kark.