Ciekawostki

„Nie” dla zabójczych robotów

przeczytasz w 2 min.

Elon Musk, Mustafa Suleyman i 114 innych speców od sztucznej inteligencji wzywa do wpisania autonomicznych narzędzi na listę broni zakazanych.

Nie chcą trzeciej wojny światowej. Elon Musk z firmy Tesla, Mustafa Suleyman z DeepMind i ponad stu innych specjalistów zajmujących się rozwojem takich dziedzin jak sztuczna inteligencja wystosowało otwarty list do Organizacji Narodów Zjednoczonych, w którym nawołuje do zakazania używania zabójczych robotów i innych form autonomicznej broni.

Eksperci żądają zakazu

Łącznie 116 nazwisk z 26 krajów widnieje pod listem wzywającym do wprowadzenia zakazu wykorzystywania śmiercionośnej broni autonomicznej. Chodzi przede wszystkim o maszyny nowego typu, takie jak samokierujące się czołgi czy drony wyposażone w karabiny gotowe do strzału. Według autorów wysłanie na wojnę urządzeń zamiast ludzi mogłoby doprowadzić do popuszczenia hamulców, a to zaś mogłoby się skończyć konfliktem na dotąd niewyobrażalną skalę. 

Eksperci twierdzą, że przy obecnym tempie rozwoju nowych technologii, wojna z wykorzystaniem autonomicznej broni (przynajmniej po jednej ze stron) mogłaby rozpocząć się już za kilka (a nie kilkanaście) lat. I choć firmy tworzące takie maszyny twierdzą, że pozwolą one uratować wiele żyć, ostatecznie efekt może być zupełnie odwrotny, szczególnie pod względem liczby zabitych cywilów.

Tak swoje częściowo autonomiczne drony promuje Duke Robotics.

Autorzy listu chcą, by systemy broni autonomicznej zostały wpisane na listę broni zakazanych (CCWC – Konwencja o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych, które mogą być uważane za powodujące nadmierne cierpienia lub mające niekontrolowane skutki), na której znajdują się między innymi laserowe bronie oślepiające oraz miny-pułapki. 

Dobre i złe strony sztucznej inteligencji

„Prawie każda technologia może być użyta w dobrym lub złym celu i sztuczna inteligencja nie jest wyjątkiem” – słusznie zauważa prof. Toby Walsh z University of New South Wales. – „SI może pomóc w rozwiązaniu wielu problemów społecznych, takich jak nierówność czy ubóstwo, a także uporać się ze zmianami klimatycznymi czy kryzysami finansowymi. Równocześnie może być użyta w broni autonomicznej w celu zindustrializowania wojny. Musimy wybrać, co wolimy”.

Założyciel Clearpath Robotics, Ryan Gariepy dodaje, że „w przeciwieństwie do innych potencjalnych zastosowań sztucznej inteligencji, które pozostają w sferze science-fiction, autonomiczne systemy militarne są już rozwijane i mogą powodować realne szkody dla niewinnych ludzi oraz doprowadzić do globalnej destabilizacji”.

Jednym z najbardziej znanych w liście jest nazwisko Elona Muska. Wizjoner wielokrotnie już ostrzegał przed sztuczną inteligencją i zachęcał władze do wprowadzania przepisów regulujących rozwój tej technologii. Według niego, „z reaktywną postawą dojdziemy do momentu, kiedy będzie już dla nas za późno”.

...ale broń autonomiczna już istnieje

Fakty są jednak takie, że już dzisiaj wykorzystuje się bardziej lub mniej zaawansowane bronie autonomiczne. Podczas gdy słowa wspomnianych ekspertów brzmią tak, jakbyśmy mieli czekać na pojawienie się T-800, rzeczywistość wygląda nieco inaczej. W różnych miejscach świata odnajdujemy takie maszyny jak wartowniczy SGR-A1 zdolny do samodzielnego strzału, stworzony przez firmę Samsung na zlecenie południowokoreańskiego rządu.

Mamy też (prawie gotowego) brytyjskiego drona Taranis (od BAE Systems), który autonomicznie będzie w stanie transportować ładunki. Z kolei w Rosji i w Stanach Zjednoczonych rozwijane są czołgi autonomiczne i zdalnie sterowane, a w ubiegłym roku armia tego drugiego kraju uruchomiła autonomiczny okręt wojenny Sea Hunter.

Autorzy listu uważają, że ich wykorzystanie powinno być przynajmniej ograniczone. Temat ten zostanie najprawdopodobniej poruszony podczas spotkania w listopadzie.

Źródło: The Guardian, Quartz. Foto: Melinda Sue Gordon/Allstar/Paramount Pictures

Komentarze

8
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    4
    Jeśli ktoś bardzo chce, ma dość czasu i pieniędzy - przełamie każde zabezpieczenie.

    "zhakować" można każde urządzenie na planecie, bo żadne z nich nie jest idealne - tak samo jak ich stwórcy.
    • avatar
      Renji
      2
      To jeszcze nie ten czas ale w przyszłości naprawdę, możemy mieć z tym problem. Sztuczna inteligencja zawsze będzie opierać sie na dyrektywach, a nikt z nas nie jest na tyle inteligentny i przewidywalny by stworzyć je tak, aby nie dało sie ich obejść.
      • avatar
        Author
        1
        Cholerni hipokryci jedną ręką robią takie roboty a drugą wymachują, że to niebezpieczne

        co za lamy
        • avatar
          darioz
          -1
          USA nigdy nie pozwolą aby bojowe cyborgi, androidy, robocopy zostały zakazane!
          • avatar
            Konsole Rzondzom
            -3
            Po prostu bojom sie nie znanego i wolom dmóhać na zimne