Na topie

Mówienie sztucznej inteligencji „dobra robota!”

Autor:

Szef strefy Ciekawostki

więcej artykułów ze strefy:
Ciekawostki

Kategoria: Ciekawostki Nauka Tematyka: DeepMind sztuczna inteligencja Producenci: Microsoft

Jaki sposób na uczenie sztucznej inteligencji jest najlepszy? Obecnie istnieją dwie szkoły: jedną preferują Google i Elon Musk, drugą – Microsoft.

Mówienie sztucznej inteligencji „dobra robota!”

A A

Ludzie uczą się bardzo efektywnie. Jesteśmy w stanie szybko opanować pewne czynności, ale niestety nie można tego samego powiedzieć o sztucznej inteligencji. Przynajmniej na razie.

„Inteligentne” oprogramowanie i roboty podczas nauki wykorzystują znaną też ludziom metodę prób i błędów. Testują różne sposoby realizacji zadania do tego momentu, aż wykonają je wzorowo. Jest tylko jeden problem: jak najlepiej powiedzieć sztucznej inteligencji, że zrobiła coś tak jak należy?

Odpowiedzi na to pytanie szukają trzy zespoły: współpracujące DeepMind (należący do Google) i OpenAI (założony przez Elona Muska) oraz niezależnie Maluuba (przejęty w tym roku przez Microsoft). Te pierwsze doszły do wniosku, że najlepiej jeśli człowiek będzie „pasterzem”, Maluuba zaś proponuje opracowanie systemu, który pozwoli SI lepiej zrozumieć sytuację bez udziału człowieka.

Czy DeepMind i OpenAI stawiają na zacofane metody? Nie, po prostu inaczej podchodzą do tematu. Otóż prowadzą eksperymenty, w których człowiek za każdym razem wybiera ten lepszy z dwóch filmów przedstawiających wykonanie zadania przez sztuczną inteligencję. Ta ostatnia stara się jednak przeanalizować to, by zrozumieć gdzie robi błąd i czego się wystrzegać. 


Film przedstawia prowadzenie do osiągnięcia celu: wykonania salta.
Tak robią to zespoły DeepMind i OpenAI.

Innymi słowy: dzięki takim eksperymentom sztuczna inteligencja ma zyskać umiejętność przewidywania, co ludzie oceniliby jako dobrze i bezpiecznie wykonane zadania. 

Należący do Microsoftu zespół Maluuba poszedł nieco inną drogą, a skuteczność swojego sposobu na uczenie sztucznej inteligencji udowodnił na przykładzie gry Pac-Man. Jego algorytmy osiągnęły maksymalną liczbę punktów, poprawiając dotychczasowy rekord czterokrotnie.

Jak to osiągnięto? Otóż na początku pani Pac-Man poruszała się losowo, nie znając planszy. Z czasem odkrywała, że można zdobywać nagrody i że trzeba unikać duchów. Sztuczna inteligencja wprowadziła więc małe algorytmy w interesujących ją miejscach, które wskazywały optymalny kierunek, aby pani Pac-Man zdobywała jak najwięcej punktów.

Łącznie stworzone zostały 163 algorytmy, które cały czas analizują sytuację na planszy i próbują odgadnąć, jak najlepiej się poruszać, by zdobyć wszystkie nagrody i uniknąć wszystkich przeszkód. Efekt – 100 proc. możliwych do zdobycia punktów – udało się, według zespołu Maluuba, osiągnąć właśnie dzięki rozproszeniu nauki na wiele mniejszych algorytmów.


Według zespołu Maluuba najlepszym sposobem na naukę
jest podzielenie materiału na dużo małych elementów.

Czyżby więc tutaj leżała odpowiedź na pytanie, jak powiedzieć sztucznej inteligencji „Dobra robota!”?

Źródło: Quartz, Microsoft, OpenAI. Foto: RobinHiggins/Pixabay (CC0)

Odsłon: 3656 Skomentuj newsa
Komentarze

5

Udostępnij
  1. wizdar
    Oceń komentarz:

    3    

    Opublikowano: 2017-07-01 16:45

    Nie rozumiem tego zachwytu nad SI, w formie w której teraz się ją promuje. Jako budowanie ogromnej bazy danych na podstawie losowych zachowań, z których jakaś część prowadzi do "jako takiego" właściwego rezultatu. W miarę tzw "uczenia się" baza się ulepsza, ale czy to jest inteligencja? W moim odczuciu nie.

    Podejście MS właśnie ma większą elastyczność, jeśli algorytm sam będzie miał możliwość zmieniać siebie.

    Skomentuj

    1. piotr.potulski
      Oceń komentarz:

      2    

      Opublikowano: 2017-07-01 19:35

      Dlatego lepiej chyba używać terminu "uczenie maszynowe" (język znowu nie nadąża). Pozwala uniknąć nieco zbędnych rozważań nad definicją słowa "inteligencja". Czy jest się czym zachwycać? I tak i nie - od strony technicznej całe zagadnienie jest banalne i mało eleganckie - trochę metod statystycznych, stosunkowo prostej matematyki i naprawdę dużo danych i mocy obliczeniowej. Od strony użytkowej już jest dużo lepiej, bo to podejście pozwala rozpoznawać obrazy, dźwięki, interpretować teksty jak również dokonywać wielu prostych i banalnych czynności jak na przykład utrzymywanie właściwej temperatury powietrza w samochodzie (climatronic z tego co wiem działa właśnie w oparciu o ML). Rację masz o tyle, że to co się w tej chwili dzieje w badaniach nad ML, to nie są jakieś przełomowe rzeczy, tylko stare rozwiązania działające na większej ilości danych i w oparciu o znacznie większą moc obliczeniową.

      Skomentuj

      1. wizdar
        Oceń komentarz:

        1    

        Opublikowano: 2017-07-01 22:27

        W przypadku prostych problemów takich jak zaprojektowanie "wykonania salta" przez jakiś obiekt 2D to wygląda to jak pójście na łatwiznę - pozwalamy obiektowi wykonywać losowe ruchy i zadajemy mu cel. Obiekt zmieniając parametry i wykonując tysiące prób ostatecznie dobierze parametry tak aby zadanie wykonać (przypomina to tę teorię , że małpa pisząc losowe znaki na maszynie do pisania po jakimś czasie napisałaby "Hamleta" Szekspira). W układach automatycznej regulacji (jak na przykład wspomniany przez Ciebie climatronic) widzę sens tego - algorytm może dobrać najlepsze parametry uwzględniając mnóstwo zmiennych, jak temperatura na zewnątrz, może nawet natężenie światła słonecznego, kubatura wnętrza pojazdu.

        Ze studiów pamiętam jakieś tam podstawy sieci neuronowych i "fuzzy logic". Podejrzewam, że może to siedzi w climatronicu. Prawdopodobnie określenie SI/ "uczenia maszynowego" jest nadużywane żeby sprzedać coś starego w nowym opakowaniu.

        Skomentuj

        1. Q2hvY2hsaWs6
          Oceń komentarz:

          -1    

          Opublikowano: 2017-07-03 11:38

          Obaj macie trochę racji, ale obaj też błędnie szukacie dosłownego znaczenia słowa "inteligencja" w nazwie zagadnienia nazwanego Sztuczna Inteligencja. Polecam sobie najpierw przeczytać definicję - choćby z wiki - i przestać podniecać się tym, że ta cała sztuczna inteligencja to nie inteligencja. Nie jest to inteligencja taka jaką opisuje się stworzenia żywe. Sztuczna inteligencja tylko imituje proces podejmowania decyzji przez istotę żywą. Jest jego uproszczeniem, a nie dokładnym odwzorowaniem.

          Skomentuj

  2. piotr.potulski
    Oceń komentarz:

    1    

    Opublikowano: 2017-07-03 12:27

    Sieci neuronowe i inne rozwiązania ML są wykorzystywane wbrew pozorom dość szeroko i sporo tych zastosowań to są właśnie takie drobiazgi jak automatyka, wykrywanie anomalii i podobne pierdoły realizowane za pomocą paru neuronów na krzyż, czy innych prostych metod statystycznych - bo pozwala to na osiągnięcie lepszych efektów w porównaniu do podejścia "jeśli to to tamto".
    Paradoksalnie, zagadnienia dotyczące rzeczy prostych dla ludzi jak motoryka, widzenie, słyszenie są trudne dla AI, więc niekoniecznie zgodzę się z twierdzeniem, że wykonanie przez obiekt 3D salta jest zagadnieniem prostym.
    Do nauki potrzebujesz danych - np. zdjęć wraz z tagami co zawierają (dziecko uczysz podobnie - zobacz to jest koń, to krowa itd...) Problem w tym, że to jest to również najbardziej kosztowny i problematyczny etap większości projektów AI. W uproszczeniu ML może coś tam robić (w tym przypadku salta) a trener ma jej mówić czy rezultat jest zgodny z oczekiwanym. Cały bajer o którym mowa w artykule, to użycie 2 systemów ML zamiast jednego. Dodatkowy system mówi pierwszemu, czy już "fikołek" który został przez niego wykonany zakończył się bezpiecznie, czy też złamany został cyfrowy kark.

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!