Nauka

Hawking, Musk i inni ostrzegają przed bronią AI

przeczytasz w 1 min.

„Broń, która wybiera, lokalizuje i zwalcza cele bez udziału człowieka, nie jest dobra dla społeczeństwa”.

autonomiczny dron
foto: AP Photo/Massoud Hossaini

Boisz się sztucznej inteligencji? Musisz wiedzieć o dwóch rzeczach – po pierwsze, prawdopodobnie słusznie; po drugie, zdecydowanie nie jesteś sam. Eksperci z sektora robotyki z całego świata wzywają do podpisania paktu o nierozwijaniu i niekorzystaniu z broni autonomicznych, ponieważ tego typu rewolucja na polu bitwy może przynieść ludzkości katastrofę.

Owoce rozwoju robotyki i sztucznej inteligencji są już teraz wyraźnie widoczne. Samokierujące się samochody czy drony wyposażone w kamery i czujniki pomiarowe, to jedne z mniej przerażających przykładów. Eksperci chcieliby, by na takich projektach sprawę zakończono – sztuczna inteligencja nigdy bowiem nie powinna znaleźć się na polu bitwy i odgrywać roli w wojnie.

Otwarty list opublikowany przez Future of Life Institute został podpisany przez setki naukowców i inżynierów z całego świata. Wśród nazwisk znajdujemy między innymi Stephena Hawkinga, dyrektora generalnego Tesla Motors i SpaceX Elona Muska, współzałożyciela Apple Steve’a Wozniaka oraz filozofa Daniela Denneta.

W liście tym broń autonomiczna jest definiowana jako ta, która „wybiera, lokalizuje i zwalcza cele bez udziału człowieka”. Nie trzeba nawet zastanawiać się zbyt długo, aby zrozumieć jak duże jest to zagrożenie. „Broń autonomiczna wydaje się idealnym rozwiązaniem do zadań, takich jak zabójstwa, destabilizacja narodów, podbijanie terenów czy selektywne unicestwianie określonej grupy etnicznej” – czytamy w liście. – „W związku z tym uważamy, że sztuczna inteligencja w wojsku nie byłaby raczej korzystna dla ludzkości”.

„Podobnie jak większość chemików i biologów nie ma żadnego interesu w tworzeni broni chemicznej lub biologicznej, badacze AI nie mają interesu w tworzeniu broni AI. Nie chcą też, by inni niszczyli w ten sposób ich sektor sprawiając, że ludzie staną przeciwko sztucznej inteligencji, co ograniczyłoby przyszłe korzyści społeczne płynące z jej rozwoju”.

To oczywiście tylko list. Miejmy jednak nadzieję, że da niektórym do myślenia.

Źródło: Engadget, CNET

Komentarze

8
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    thoruus
    1
    "nie byłaby raczej korzystna" czyli co? Byłaby raczej niekorzystna? Ale jeśli raczej, to może jednak byłaby? Takie pitolenie w bambus... Jak to brzmi w oryginale? :D
    • avatar
      Foxy the Pirate
      0
      USA straciło by zbyt wiele na sprzedaży broni. Nic z tego.
      • avatar
        jeomax.co.uk
        -2
        "Miejmy jednak nadzieję, że da niektórym do myślenia".
        Nadzieja, niektorzy - to rzeczywiscie fantasmagorie, skoro nawet nie mozna laczyc obu tych slow w kontekscie "SSD i dyski" z powodu lenistwa owych niektorych, to co dopiero wymagac od tych, ktorzy trzepia gruba kasiore na broni, zeby "wrzucali jakies myslenie"...
        • avatar
          wizdar
          0
          Nie widzę zagrożenia w autonomicznych samolotach, które musi człowiek wyposażyć w bomby czy rakiety.

          Zagrożeniem będzie zbyt duża samodzielność, na razie nie widać takich zagrożeń.