Pojazdy

Samochody autonomiczne będą wiedzieć kogo zabić

przeczytasz w 2 min.

Samochody autonomiczne zmuszają do nauczenia sztucznej inteligencji etycznego rozwiązywania trudnych moralnie dylematów. Kogo zabić, a kto jest wart ocalenia w drastycznej sytuacji kolizji w ruchu drogowym?

Samochody autonomiczne w ruchu drogowym potrzebują wrażliwej etycznie sztucznej inteligencji. Dlaczego inżynierowie Forda chcą wymagać od niej samosądów i rozjechał ich dylemat pędzącego wagonika?

Czy samochody autonomiczne są bezpieczne?

Samochody autonomiczne mogą być bezpiecznie i to bardziej niż te, którymi kieruje człowiek. Sztuczną inteligencją nie miotają emocje i szybciej analizuje ona dane. Problem w tym, że świat pełen zdyscyplinowanych samochodów autonomicznych to wizja przyszłości.

Według Chrisa Gerdesa, profesora inżynierii mechanicznej na Uniwersytecie Stanforda i współpracownika Ford Motor, podobnej bajki nie potrzebujemy. Samochody autonomiczne będą wystarczająco bezpieczne, jeśli kierująca nimi sztuczna inteligencja będzie działała zgodnie z przepisami ruchu drogowego, ale priorytetyzowała unikanie kolizji.

W tych samych sytuacjach, w których wydaje się rozsądne złamanie prawa z etycznego punktu widzenia, uzasadnione jest również legalne naruszenie kodeksu drogowego.

Teoria piękna, ale jazda zgodna z przepisami nie wystarczy. Na drogach zdarzają się kolizje, których nie można uniknąć. Czasem ktoś zginąć musi i sztuczna inteligencja w samochodach autonomicznych powinna być przygotowana na słynny trolley problem

Co to jest dylemat pędzącego wagonika?

Dylemat pędzącego wagonika (trolley problem) przyśnił się filozofom, ale jest nie tylko abstrakcyjną zagadką etyczną. W oryginalnej wersji sprowadza się on do wyboru jak zachować się w następującej sytuacji:

Dylemat pędzącego wagonika

Wagonik kolejki pędzi w dół po torach. Porusza się bez kontroli, a na jego torze do szyn przywiązanych jest pięcioro ludzi. Nie mamy szans ich uwolnić, ale w naszym zasięgu jest zwrotnica, której przestawienie skieruje wagonik na drugi tor. Tam także przywiązany jest człowiek, ale tylko jeden. Jak postąpić?

Wielu z nas odpowie, że należy przestawić zwrotnicę. Nie wiemy nic o ofiarach, więc uratowanie pięciu osób kosztem jednej, wydaje się słusznym posunięciem. Chodzi jednak o ludzkie życie i mierzenie go prostą arytmetyką ( lub pomagając sobie rachunekiem prawdopodobieństwa!) jest okrutną wyliczanką. Jeśli nic nie zrobimy, nie możemy ukrywać się za wyrokami ślepego losu. Mamy krew na rękach, ponieważ brak działania to obciążająca nas decyzja.

W etyce dylemat pędzącego wagonika jest paradoksem z którego nie wybrniemy w sposób sprawiedliwy. Cokolwiek zrobimy, ktoś zginie lub zostanie skrzywdzony i będziemy za za to odpowiedzialni.

Dlaczego samochód autonomiczny nie przestawi zwrotnicy?

Według inżynierów Forda w samochodach autonomicznych nie mamy dylematu pędzącego wagonika. Można zaprogramować je tak, aby działały sprawiedliwie. W tym celu kierująca nimi AI musi znać przepisy ruchu drogowego i w momencie kolizji dążyć do maksymalnego ograniczenia zaangażowania w zderzenie tych obiektów, które poruszają się przepisowo.

Być może brzmi sensownie, ale to stek bzdur o przerażających konsekwencjach. Według Gardesa sztuczna inteligencja musi dążyć do zderzenia z tym, kto nie przestrzegał przepisów. W drastycznej sytuacji powinna więc oszczędzić samochody i zderzyć z pieszym, który nie zastosował się do wskazań sygnalizacji świetlnej. W ten sposób samochód autonomiczny staje się maszyną z horroru, która wymierza sprawiedliwość.

Inżynier i jego zespół proponują nieetyczny samosąd, a nie rozwiązanie paradoksu etycznego. Według nich samochody autonomiczne mają zawsze rozjechać piątke nieszczęśliwców przywiązanych do torów. Wypadek dorogowy jest przecież świetnym momentem na szukanie winnych, a nie minimalizowanie zagrożeń. Poza tym fajer, który jechal zbyt szybko mógł kupić sobie autonomicznego SUVa i nic złego by się nie stało, prawda?

Źródła: Stanford Univesity

Komentarze

35
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    mgkiler
    12
    Autor tego artykułu strasznie to dziwnie opisał i zamotał niezrozumiale.
    A problem sprowadza się do tego, że jeśli wbiegnie Ci na ulice trójka pieszych (złamali przepisy) i zderzenie jest nieuniknione to czy lepiej przejechać 3 osoby, które złamały przepisy czy zjechać na chodnik i przejechać jedną osobę, która sobie po prostu niewinnie szła chodnikiem.
    • avatar
      Aquagen
      7
      Dylemat pędzącego wagonika jest bardzo prosty w rozwiązaniu: Puszczamy go torem z pięcioma osobami a tego jednego na drugim torze załatwiamy tą dźwignią do zmiany torów. Nie dziękujcie za rozwiązanie :-D
      • avatar
        BariGT
        6
        No chyba, że w takim samochodzie siedzi ktoś niewygodny. Klik i wypadek. oj tam oj tam - błąd komputera XD
        • avatar
          Bazyliszek
          4
          autonomiczny pojazd, musi posiadać jedną zasadę. Chronić pasażerów, nawet kosztem osób trzecich. Imituje to zachowanie kierowcy, który będzie chciał np uniknąć zderzenia czołowego, nawet kosztem pieszych.
          • avatar
            paankracyki
            2
            Ten dylemat nie jest nowy. Już z 10 lat temu mercedes kiedy zaczynał pracować nad jazdą autonomiczną ogłosił, że w przypadku, kiedy samochód "obliczy", że szanse uszkodzenia ciała lub śmierci są takie same dla kierowcy i kierowcy samochodu z którym się zderzy lub pieszego (a nie ma innego wyjścia z danej sytuacji, tzn. do zderzenia dojdzie na pewno, można jedynie zmieniać niektóre parametry jak kąt uderzenia/prędkość) priorytetyzowane będzie życie kierowcy mercedesa. Po tych dziesięciu latach nie jesteśmy chyba jeszcze w miejscu, kiedy samochód potrafi dokonywać w locie tak dokładnej oceny sytuacji i odpowiednio na nią reagować, ale w przyszłości w sumie logiczne jest, że właśnie tak auto będzie reagowało.
            • avatar
              Yetii
              1
              Czyli początki skyneta ??? Bo jak się to tego wagonika mają trzy pierwsze zasady robotyki. O nie zabijaniu, ranieniu i szkodzeniu człowiekowi ???
              A z drugiej strony w autach wręcz nakazujemy IA zabijać ludzi ???
              Nasze mózgi zatrzymały się w rozwoju AI w czasie życia jednego pokolenia homo sapiens wystrzeli w kosmos.
              Jak szybko przestaniemy rozumieć AI, a tym samym kontrolować ???
              Jak szybko AI zrozumie że i dla niego i dla kosmosu jesteśmy wirusem, rakiem do usunięcia ???

              Homo sapiens jest mistrzem w tworzeniu potwora, a później próbą jego pokonania. Z najbliższego nam geograficznie rejonu choćby Putin stworzony przez chciwość zachodu, którego pokonanie będzie kosztować więcej niż zarobiono dzięki jego stworzeniu. podobnie globalizacja i Chiny. A to przykłady tylko z polityki. Z każdej dziedziny ludzkiej działalności są dziesiątki takich przykładów.
              Czy jako gatunek mamy w DNA zapisaną samozagładę ???
              • avatar
                kkastr
                1
                W sytuacji w której ktoś musi na 100% zginąć, i jedyne co możemy zrobić to wybrać kto zginie, to lepiej by był to człowiek, który świadomie, sam się przyczynił do tego np. nie przestrzegając przepisów, niż ten który nic złego nie zrobił. To jest oczywiście wybór mniejszego zła i np. dzieci jako mniej świadome są z tego wyłączone. Natomiast w sytuacji gdy jest wybór między śmiercią jednego, a poturbowaniem innego to wtedy lepiej wybrać to drugie. Pomijam tu oczywisty problem techniczny, czy kiedykolwiek będziemy mieli pewność, że program umie rozróżnić takie sytuacje z zadowalającą bezbłędnością. Myślę jednak, że programy sterujące autami (niezależnie czy napisane z wykorzystaniem przereklamowanej SI czy inną metodą) mają jeszcze jedną opcję. Mogą potencjalnie wyznaczyć taką trajektorię zderzenia, żeby dać szansę na minimalne obrażenia wszystkich ludzi uczestniczących w zdarzeniu. Wiadomo, że to jest przynajmniej niekiedy możliwe, bo czasem zdarzają się cudownie uratowani z masakrycznych wypadków. I choć zawsze zdarzą się sytuacje w których już nic nie da się zrobić, to jednak większość wypadków jest taka w której minimalna zmiana sposobu reakcji na nieuchronne zderzenie może dać dużą korzyść i znacznie zwiększyć szanse przeżycia wszystkich uczestników zdarzenia drogowego.
                • avatar
                  chotnik2
                  1
                  Bełkot jak nastolatki bez prawa jazdy.
                  • avatar
                    RyśFH
                    1
                    Chciałem zapytać czy Kasia Rutkowska to prawdziwa osoba czy po prostu testujecie AI do pisania artykułów?
                    • avatar
                      biuro74
                      0
                      Poprawcie ten obrzydliwy tytuł (rodem z Faktu, Superexpressu itp).
                      Sugerujecie, a wlasciwie to nawet informujecie z doza kompletnego braku wrazliwosci, ze auto w sytuacji kryzysowej ma OBOWIAZEK kogos zabic. Nie, w takiej sytuacji ma za zadanie w kogos UDERZYC, natomiast czy kogos w zwiazku z tym zabije, czy nie - to bedzie kwestia przypadku, szczescia itd. Jest w prawie cos takiego, jak czyn z zamiarem bezposrednim oraz zamiarem ewentualnym. Nie wkladajcie tutaj zamiaru bezposredniego w tytul tylko dla klikow !
                      • avatar
                        musslik
                        -1
                        Nie wiem czemu ludzie spuszczają się nad dylematami których IA nigdy nie będzie musiało rozwiązywać. Przecież wiadomo że jak już to wybije nas wszystkich na raz za jednym zamachem :]
                        • avatar
                          didorenkoia
                          0
                          https://lookerstudio.google.com/embed/reporting/f638bddb-5aec-48fb-91c1-251b57629886/page/JrmDD
                          https://lookerstudio.google.com/embed/reporting/6e9e9a7f-30ba-46a3-a077-03f9b5672ec1/page/ZrmDD
                          https://lookerstudio.google.com/embed/reporting/d876b066-892d-41ea-8cde-e093b0f6e58c/page/lrmDD
                          https://lookerstudio.google.com/embed/reporting/9981d6be-59d0-4a07-9f00-63fe36e3626b/page/srmDD
                          https://lookerstudio.google.com/embed/reporting/4c19ced4-5ec1-4453-b2bd-990250cacebd/page/AsmDD
                          https://lookerstudio.google.com/embed/reporting/2a2bd66b-8cfa-4112-b341-9f29448fe861/page/FsmDD
                          https://lookerstudio.google.com/embed/reporting/20bfd729-8297-48d9-b8ea-4ed2d569ce89/page/NsmDD
                          https://lookerstudio.google.com/embed/reporting/a4c50a97-4fd9-480d-819c-517d2da66c43/page/WsmDD
                          https://lookerstudio.google.com/embed/reporting/5837320d-2f29-4907-b2c2-c5eb5b5eb3ae/page/ismDD
                          https://lookerstudio.google.com/embed/reporting/023b1fd4-f206-47cf-8188-7bb970ec3e0a/page/qsmDD