Nauka

Dobra sztuczna inteligencja

przeczytasz w 3 min.

Eksperci, badacze i wizjonerzy wspólnymi siłami stworzyli kodeks postępowania przy rozwoju sztucznej inteligencji - 23 Zasady z Asilomar.

Eksperci nie mają wątpliwości, że sztuczna inteligencja wreszcie stanie się – no tak – inteligentna i najpewniej nawet się nie obejrzymy, a obudzimy się w świecie, w którym będziemy musieli z nią koegzystować. Co zrobić jednak, by człowiek nie stał się zbędny, a sztuczna inteligencja (nawet najbliższa doskonałości) nie zdołała zepchnąć go na boczny tor? Jednym z rozwiązań jest zaproponowana przez Elona Muska cyborgizacja społeczeństwa, której założenie zawiera się w zdaniu wypowiedzianym przez wizjonera podczas World Government Summit 2017 – „ludzie muszą również wyewoluować, by dotrzymać kroku maszynom”. Nie mniej ważne jest jednak, by pilnując swojego rozwoju, nie zapomnieć o tym, że to my decydujemy również o tym, w którą stronę ewoluować będzie sztuczna inteligencja.

Zawdzięczające swoją nazwę kalifornijskiej konferencji, podczas której zostały ogłoszone, Zasady z Asilomar są zbiorem 23 reguł, jakimi ludzkość powinna się kierować, by rozwój sztucznej inteligencji szedł w dobrym kierunku i by nie dopuścić do powstania „złych” maszyn. Jest to swego rodzaju odpowiedź na prawa Asimova, który w 1942 roku opublikował trzy zasady na temat etyki robotów – że nie mogą one krzywdzić człowieka, że muszą być mu posłuszne i że powinny przy tym chronić siebie. W tworzeniu Zasad z Asilomar udział brali między innymi Elon Musk i Stephen Hawking, którzy – tak jak Asimov – twierdzą, że należy zadbać zawczasu o to, by technologia nie zwróciła się przeciwko ludzkości.

Pięć pierwszych reguł dotyczy badań. Zasady z Asilomar rozpoczynają się od wyraźnego zaznaczenia celu prowadzenia badań nad sztuczną inteligencją, a więc, że powinna ona być tworzona z myślą o tym, by była pożyteczna dla człowieka. Inwestowanie w SI powinno zaś iść w parze z finansowanie badań na temat znaczenia sztucznej inteligencji dla społeczeństwa, prawa i etyki czy ekonomii – mówi prawo drugie. Ci, którzy zajmują się rozwojem nowych technologii powinni też pozostawać w stałym kontakcie z politykami i twórcami prawa, a wymiana wiedzy pomiędzy nimi musi być zdrowa i konstruktywna. Współpraca, zaufanie i transparentność powinny być zasadami wyznawanymi podczas badania tematu, a niezdrowy „wyścig szczurów” w tym zakresie nie wchodzi w grę.

Zasadami szóstą i siódmą otwiera się część poświęcona etyce i wartościom. Zakładają one, że systemy sztucznej inteligencji powinny być w pełni bezpieczne dla człowieka, a jeśli już z jakichś przyczyn wyrządzą one krzywdę człowiekowi, musi być możliwość ustalenia, jak i dlaczego do tego doszło. Kompetentny człowiek musi też mieć możliwość weryfikacji decyzji w sprawach sądowych, które mógłby podjąć „automat”. Po tym przechodzimy do punktu dziewiątego, który jest jednym z najważniejszych: projektanci i producenci zaawansowanych systemów sztucznej inteligencji są odpowiedzialni za konsekwencje ich wykorzystywania. Innymi słowy, umywanie rąk jest niedopuszczalne.

Cele autonomicznego systemu sztucznej inteligencji muszą się w pełni pokrywać z wartościami, które wyznaje ludzkość. Muszą być zgodne z obowiązującymi prawami oraz szanować wolność, godność i różnorodność kulturową ludzi. To zasady numer dziesięć i jedenaście, po których następują dwie równie istotne: ludzie powinni mieć możliwość kontrolowania i zarządzania informacjami, które generują, a ich dane osobowe powinny być szanowane. Zarządzanie nimi przez sztuczną inteligencję nie może umniejszać wolności ludzi. Ba, nowoczesne technologie powinny być pożyteczne i wzmacniać ludzką pozycję tak bardzo, jak to tylko możliwe. Korzyści płynących z ich wykorzystania doświadczyć zaś powinien nie tylko konkretny człowiek, ale ludzkość rozumiana jako ogół.

Człowiek musi mieć możliwość wyboru, w jakim stopniu i czy w ogóle chce oddać decyzyjność sztucznej inteligencji – tak głosi zasada numer szesnaście. To istotne, szczególnie w obliczu kolejnej reguły, mówiącej, że oddanie władzy w ręce technologii nie może mieć negatywnego wpływu na szeroko pojęte zdrowie społeczeństwa. Zasady od osiemnastej do dwudziestej drugiej to brak zgody na tworzenie śmiercionośnej broni autonomicznej, pozostawianie bez kontroli sztucznej inteligencji zdolnej do samodzielnego ulepszania się i zakładanie zakresu jej przyszłych możliwości. Równocześnie jednak konieczne jest podejmowanie trudu, mającego na celu zabezpieczenie ludzkości przed ryzykiem, jakie w gruncie rzeczy może nieść ze sobą wdrażanie nowych technologii w kolejnych sektorach rynku (i nie tylko).

Ostatnia Zasada z Asilomar jest zarazem najważniejsza – sztuczna inteligencja powinna być rozwijana tak, by służyła ideałom etycznym i z korzyścią dla całej ludzkości, a nie jednego państwa lub organizacji.

Źródło: Business Insider, Future of Life Institute, inf. własna

Komentarze

2
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Author
    0
    Prawa prawami a rzeczywistość sobie. Uważam, że postęp idzie zbyt szybko nawet dla dzieci, które maja teraz 15 lat.

    Pokolenie, które nie ma jeszcze 40 lat przeszło od komputerów C64 do smartfonów i sztucznej inteligencji.

    Obawiam się, że większość nie ma zdolności do tak szybkiej adaptacji. Coś co trwało kiedyś pokolenia lub wieki teraz trwa dwie dekady.

    Nie wiem, czy ludzkość dorosła do swoich wynalazków :)