Ciekawostki

Etyka samochodowa - jaka powinna być?

z dnia 2017-08-25
Wojciech Kulik | Redaktor serwisu benchmark.pl
14 komentarzy Dyskutuj z nami

Jaka powinna „moralność” samokierującego się samochodu. Do uratowania czyjego życia powinien dążyć taki system? Czy może w ogóle o tym decydować?

Czasem nie ma dobrego wyjścia, ale trzeba wybrać najmniejsze zło. Gdy auto jest prowadzone przez ludzkiego kierowcę, to on musi w ułamku sekundy zadecydować, jak wybrnąć – musi podjąć decyzję, co przyniesie najmniejszą szkodę (potrącenie człowieka lub zwierzęcia, uderzenie w nieruchomą przeszkodę czy wciśnięcie hamulców do oporu i zatrzymanie się na środku ulicy). Czy powinien ratować siebie, czy innych. Samokierujący się samochód nie wie, co powinien w takiej sytuacji zrobić – to człowiek musi mu najpierw to powiedzieć.

Niemiecki rząd, we współpracy z inżynierami, ekspertami i prawnikami, opracował właśnie taki zestaw „etycznych” reguł, których powinien trzymać się samokierujący się samochód. Najważniejsza z nich jest taka, że ludzkie życie zawsze musi mieć pierwszeństwo nad życiem zwierzęcia, a już tym bardziej nad przedmiotami. Taka zasada jest jednak wystarczająca tylko wtedy, gdy sytuacja jest prosta i istnieją jedynie trzy możliwe zakończenia, w których albo ginie człowiek, albo ginie zwierzę, albo zniszczone jest – powiedzmy – ogrodzenie.

Jednak są też trudniejsze sytuacje. Weźmy chociażby tzw. dylemat wagonika, w którym (za Wikipedią) „wagonik kolejki wyrwał się spod kontroli i pędzi w dół po torach. Na jego drodze znajduje się pięciu ludzi przywiązanych do torów przez szalonego filozofa. Ale możesz przestawić zwrotnicę i w ten sposób skierować wagonik na drugi tor, do którego przywiązany jest jeden człowiek” – pytanie brzmi: co powinno się zrobić (pozwolić na śmierć 5 ludzi czy interweniować i skazać na śmierć innego człowieka)? Sytuacja komplikuje się jeszcze bardziej, gdy w grę wchodzą ludzie o różnym wieku albo na przykład w ciąży.

Szef projektu samokierujących się samochodów Google odpowiedział, że auta wykorzystujące jego system nie będą mogły decydować, kto ma zginąć. Do tego samego wniosku doszła niemiecka komisja, która spisała punkt mówiący, że „jeśli wypadek jest nieunikniony, samochód nie może podejmować żadnych decyzji odnośnie do tego, kogo uratować – nie może to być zależne od wieku, płci, rasy, sprawności itp. – każde życie ma tę samą wartość”.

Jeśli więc jest możliwość uratowania ludzkiego życia, samochód powinien do tego dążyć, ale jeśli ktoś musi zginąć, to system nie może decydować o tym, kto. Szef Mercedesa zdaje się nie do końca z tym zgadzać. W 2016 roku stwierdził bowiem, że gdyby auto miało możliwość uratowania kierowcy lub pieszego, powinno próbować uratować tego pierwszego, ponieważ ma on większe szanse na przeżycie. Niemieckie prawo takiego nadawania priorytetów ma jednak zabronić.

Wśród innych założeń odnajdujemy na przykład obowiązek instalowania czarnych skrzynek (które pozwolą określić, czy do wypadku doprowadziła maszyna czy człowiek) oraz oddanie w ręce nabywcy samochodu kontroli nad tym, kto i w jaki sposób przetwarza dane zbierane przez auto. 

Ten artykuł pochodzi ze strony benchmark.pl

Źródło: The Register, Engadget, The Next Web, Wikipedia. Foto: PublicDomainPictures/Pixabay (CC0)

marketplace

Komentarze

14
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Niech wrzucą slow-mo i QTE. Człowiek będzie musiał zdecydować po wysłuchaniu dialogów.

    A tak na serio... moim zdaniem komputer to komputer, jak ma podejmować jakieś akcje, to musi też dokładnie znać zasady w jaki sposób powinien szukać rozwiązania. I bzdurą jest, że każde życie ma taką samą wartość. Wystarczy spojrzeć na komentarze tego debila @Konsole Rzondzom. No, ale niestety zaraz wyskoczy setka ugrupowań i zrzeszeń, które będą się bulwersować i sprzeciwiać logicznemu i matematycznemu systemowi oceny sytuacji. Dlatego najlepsze rozwiązanie byłoby takie, żeby tak jak każdy człowiek, w chwili zagrożenia, nie myśli, o tym czy kogoś potrącić, czy skręcić w krzaki, tylko instynktownie zawsze ratuje siebie. Dlatego samochód powinien ratować siebie. Wtedy będzie sprawiedliwie i równo. Czasem da po hamulcach, czasem odbije w którąś stronę... Statystycznie i tak osoba w samochodzie częściej przeżywa wy wypadku z pieszym, więc nic się nie zmieni.
    Zaloguj się
  • avatar

    Nie sądzę, aby kierowca w decydującej chwili miał czas rozmyślać nad dymelatami moralnymi i zagadnieniami filozoficznymi. Instynkt samozachowawczy działa tak, jak działa.

    Zatem, w odniesieniu do powyższego, jak powinien reagować automatyczny pojazd? Trudne pytanie. Ale wydaje mi się, że nikt nie kupi samochodu, który byłby skłonny poświęcić życie kierowcy w imię większego dobra.

    Zaloguj się
  • avatar
    Prawa Asimova :) Ciekawe tylko czy doszłoby do sytuacji z Ja Robot
  • avatar
    Życie każdego człowieka jest tak samo cenne. Bardzo mądre. Radzę poinformować o tym feministki.
    Zaloguj się
  • avatar
    Benchmark pls ogarnijcie te duplikaty...
  • avatar
    Wystarczyłoby by przy uruchamianiu samochodu system zadawał pytanie: "Czy w przypadku zagrożenia życia ludzkiego ratować kierowcę czy inne osoby?". Odpowiedzialność spada wtedy na decydującego o tym kierowcę a nie na samochód.
    Oczywiście należałoby też stworzyć możliwość "przejęcia sterów" w niebezpiecznej sytuacji ale w takim przypadku problem sprowadza się do "zwykłej" jazdy a nie autonomicznej.
  • avatar
    Etyka powinna wyglądać w taki sposób, że jak dziecko wyskoczy przed auto, to ma się zatrzymać. Gdy morderca wyskoczy ci przed samochód, to też ma się zatrzymać, a ty masz dać się zabić w imię etyki.