Nauka

Stworzyli tak dobry algorytm SI, że aż go nie udostępnią - OpenAI

opublikowano przez Wojciech Kulik w dniu 2019-02-19

Naukowcy z organizacji OpenAI po raz pierwszy podjęli decyzję o nieudostępnianiu stworzonego przez siebie algorytmu. Sztuczna inteligencja okazała się zbyt dobra.

OpenAI to (wspierana przez Elona Muska) organizacja non-profit rozwijająca sztuczną inteligencję pod takim kątem, by technologia mogła zaoferować praktyczne korzyści wszystkim ludziom. Ostatecznie (zgodnie z nazwą) zamierzała udostępniać publicznie swoje rozwiązania, aby osiągnąć wspomniany przed momentem cel. „Zamierzała”, bo częściowo zrezygnowała z tych planów. Powód? Stworzyła coś, co ją przeraziło.

Zbyt wielkie ryzyko

Naukowcy stojący za projektem OpenAI – jak czytamy na łamach The Guardian – zaprojektowali tak zaawansowany algorytm sztucznej inteligencji, że aż zaczęli się obawiać tego, jakie konsekwencje mogłoby nieść ze sobą jego udostępnienie i wykorzystanie. Mając na celu troskę o nasze wspólne bezpieczeństwo, podjęła decyzję o zmianie planów.

Algorytm nazywa się GPT2 i jest częścią większego systemu służącego do błyskawicznego identyfikowania fake newsów. On sam jest w stanie tworzyć własne wiadomości i jest w tym – jak przekonują naukowcy – tak dobry, że poziom manipulatorstwa i zakrzywiania rzeczywistości mógłby stać się tak duży, że aż stanowiłoby to realne zagrożenie dla społeczeństwa. 

(Za) dobry generator tekstu

Wyszkolony na około 10 milionach artykułów i publikowanych pod nimi komentarzach algorytm jest w stanie przerabiać autentyczne wiadomości na fałszywe i tworzyć zupełnie nowe teksty (które brzmią realistycznie, ale nie są prawdziwe), ale też na przykład dokańczać dzieła literackie. Innymi słowy: jest to generator tekstu o nadzwyczaj wysokim poziomie. 

GPT2 to pierwszy algorytm sztucznej inteligencji opracowany przez OpenAI, który został „zamknięty” ze względu na to, że okazał się zbyt dobry. Poprzednie twory grupy zostały uznane za zgodne z zasadami etycznymi i moralnymi, a następnie „uwolnione” i dziś są wykorzystywane między innymi w rozmaitych ośrodkach badawczych. 

Źródło: The Guardian, inf. własna. Ilustracja: TheDigitalArtist/Pixabay

marketplace
avatar
Dodaj
  • avatar
    Ja jestem tak dobry w lekkoatletyce że odpusciłem sobie zupełnie olimpiade. To załamało by wielu innych zawodników.
  • avatar
    Kiedyś dostaniemy ostro po tyłku przez SI. Ja na studiach już mocno oberwałem przez Sztuczną Inteligencje. Powtarzałem rok.
    Zaloguj się
  • avatar
    Niech wypuszczą, to może portale od "newsów" zaczną pisać krótko i do rzeczy, a nie jakieś wodolejstwo.
    Zaloguj się
  • avatar
    o matko, to SI chyba wyłączyli po tym jak wygenerowało tego niusa :) Po jaką chol#$, ktoś w programie do identyfikacji fałszywych niusów dodaje funkcję ich tworzenia ?! To jak by Allegro opracowało algorytm do wyłapywania nieuczciwych sprzedawców a on sam zaczął handlować i wystawiać lewe aukcje :) Kolejny raz ludzie pokazują, że z inteligencją nie mają dużo wspólnego...
    Zaloguj się
  • avatar
    Jakby go wypuścili to na BMK wycieło by połowę artykułów.
  • avatar
    Zastanawia mnie ja AI poradziło by sobie z j.polskim ? Ponoć mamy jeden z trudniejszych języków do ogarnięcia. A słowo kurva ma tyle kontekstów, ze już sami się gubimy :)
    Zaloguj się
  • avatar
    "Stworzyli tak dobry algorytm SI, że aż go nie udostępnią" Wojtek zlituj się! Wiem że w tym konkretnym przypadku "gimbaza" wie o co chodzi ale.... miej litość!!!
  • avatar
    Spamo-*eb
  • avatar
    Brzmi to trochę jak :

    Zrobiliśmy coś tak dobrego, że podbijame stawkę i sprzedamy to tylko na czarnym rynku za grube kokosy :D
  • avatar
    Bardziej przeraża mnie wizja wytworzenia samoświadomości takiej SI. Aczkolwiek kompletnie się na tym nie znam i nie wiem, czy jest to możliwe.
    Zaloguj się