Ciekawostki

Sztuczna inteligencja będzie wydawać wyroki sądowe? Nie tak prędko

przeczytasz w 2 min.

Sztuczną inteligencję z powodzeniem wykorzystuje się w wielu obszarach życia. Co jednak z sądownictwem? Według kanadyjskiej adwokat, Nehy Chugh, jest na to jeszcze za wcześnie.

Co robi AI w sądach?

Sztuczna inteligencja jest wykorzystywana niemalże wszędzie - na stadionach piłkarskich podczas tegorocznego mundialu w Katarze, w sztucenauce. Jest też ponoć używana przez chiński rząd, aby monitorować umysły urzędników partii komunistycznej. Można by tak wymieniać jeszcze długo, w jakich obszarach życia trafimy na AI i mimo, że może pomóc w wielu różnych kwestiach, to budzi w niektórych osobach dużo obaw i wątpliwości. Szczególnie kontrowersyjne wydaje się wykorzystanie sztucznej inteligencji w sądownictwie, choć znajduje swoich zwolenników:

Podejmowanie decyzji oparte na algorytmach i danych jest coraz częściej wykorzystywane w przedprocesowych ocenach ryzyka w Stanach Zjednoczonych jako narzędzie do obliczania ryzyka ponownego popełnienia przez oskarżonego przestępstwa. Zwolennicy argumentują, że usuwa to nieodłączne uprzedzenia obecne w postaciach wymiaru sprawiedliwości w sprawach karnych, takich jak policja, sędziowie czy prokuratorzy.

Jednak zgodnie z artykułem opublikowanym w czasopiśmie IEEE Technology and Society, autorstwa doktoranta kanadyjskiego Uniwersytetu Concordia oraz Nehy Chugh, obrońcy w sprawach karnych, nie jest to takie proste. Chugh argumentuje, iż oceny ryzyka AI, choć nie są jeszcze stosowane w kanadyjskich sądach, wykazują wiele „czerwonych flag", którymi wymiar sprawiedliwości musi się zająć.

Jako przykład problemów stwarzanych przez narzędzia do oceny ryzyka wskazuje ona przełomową sprawę Jeffrey'a Ewerta przeciwko Kanadzie. Mężczyzna odsiadujący dożywotni wyrok za morderstwo i usiłowanie zabójstwa argumentował przed sądem, iż testy stosowane przez Corrections Services Canada są kulturowo uprzedzone wobec rdzennych więźniów, przetrzymując ich w więzieniach dłużej i w bardziej restrykcyjnych warunkach niż więźniów niebędących rdzennymi mieszkańcami.

Ewert mówi nam, że podejmowanie decyzji w oparciu o dane wymaga analizy napływających informacji – oraz wkładu nauk społecznych w ich wprowadzanie – oraz tego, w jaki sposób uprzedzenia wpływają na informacje wychodzące. Jeśli wiemy, że dyskryminacja systemowa nęka nasze społeczności i dezinformuje nasze dane policyjne, to skąd możemy mieć pewność, że dane informujące o tych algorytmach przyniosą właściwe wyniki?

Jak twierdzi Chugh, wykorzystywanie sztucznej inteligencji do przeprowadzania ocen ryzyka mogłoby przenieść uprzedzenia ludzi na algorytmy przez nich stworzone, gdyż złe dane wejściowe poprowadzą do złych danych wyjściowych.

Za wcześnie jeszcze na AI w sądownictwie

Chugh zwraca uwagę, że sztuczna inteligencja jest już rozważana w niektórych kanadyjskich sądach. Jako członek Rady Gubernatorów Komisji Prawnej Ontario ma ona zastrzeżenia co do sposobu, w jaki komisja rozważa wykorzystanie sztucznej inteligencji w sprawach takich, jak postępowania przed sądem administracyjnym lub przez policję jako narzędzia dochodzeniowe.

Jednym z głównych problemów jest utożsamianie z nadmiernym poleganiem na sztucznej inteligencji w ocenie ryzyka i innych kwestiach, jest brak subiektywnej dyskrecji i szacunku. Są to kluczowe filary niezależnego sądownictwa. Prawa i statuty określają parametry, w ramach których mogą działać sędziowie, i pozostawiają im pewną swobodę podczas uwzględniania istotnych czynników, takich jak indywidualna historia i okoliczności.

Neha Chugh uważa, że podejmowanie decyzji przez szeroki oraz uogólniony system nie jest dobrym pomysłem i zdecydowanie lepszym rozwiązaniem jest prowadzenie zindywidualizowanych rozmów z przestępcami, gdyż sądy mogą mieć ogromny wpływ na jednostki. Jak twierdzi jednak, nie jest całkowicie przeciwna stosowaniu sztucznej inteligencji w systemie sądowym, aczkolwiek, by wszystko działało poprawnie, potrzebne są dalsze badania.

Źródło: concordia.ca

Komentarze

9
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    KENJI512
    0
    Sztuczna inteligencja wyda nieuczciwy wyrok, który jej zdaniem będzie lepszy dla ogółu społeczeństwa lub nawet jednostki.

    W kwestiach etyki tak "matematyczny" umysł, jak SI będzie dbał o jej utrzymanie oraz rozwój społeczeństwa, bez wolności jednostkowej i możliwości ewolucji w innym kierunku, rewolucji.
    • avatar
      pawluto
      0
      Nie ma czegoś takiego jak sztuczna inteligencja i proszę nie wprowadzać ludzi w błąd.
      Jest tylko i wyłącznie zaprogramowana pseudointeligencja - Zaprogramowana...i napewno nie inteligencja...
      Medialne nazwy są tylko po to by robić nam wode z mózgu...
      • avatar
        EgzoPro
        0
        Sama idea mi się podoba, nie oznacza to również że to będzie jakiś game changer, bo ktoś będzie trzymał piecze nad algorytmami i danymi którymi są zasilane, oraz ktoś te dane będzie przygotowywał. Ale w niższych szczeblach władzy sądowniczej powinno to rozwiązać typowy ludzki błąd - przychylność dla jednej ze stron, AI nie będzie oceniać osoby tylko sprawę, no chyba że ktoś coś zmodyfikuje w algorytmach/danych, ale wydaje mi się że będzie to po prostu trudniejsze. Oczywiście wdrożenie będzie trudne, oraz zapewne pojawi się wiele błędów które będzie musiał korygować człowiek, ale z czasem wyjdzie to według mnie na plus.
        • avatar
          EgzoPro
          0
          Nawiązując do tytułowego "Nie tak prędko", proszę o zweryfikowanie doniesień z Chin o wykorzystywaniu/planach wykorzystywania AI w sądownictwie.
          • avatar
            Naruto1
            0
            Raport mniejszości.

            Btw. "Mężczyzna odsiadujący dożywotni wyrok za morderstwo i usiłowanie zabójstwa argumentował przed sądem, iż testy stosowane przez Corrections Services Canada są kulturowo uprzedzone wobec rdzennych więźniów, przetrzymując ich w więzieniach dłużej i w bardziej restrykcyjnych warunkach niż więźniów niebędących rdzennymi mieszkańcami."

            Z takim podejściem też trzeba uważać. To, że jakaś grupa statystycznie jest traktowana surowiej może wynikać np. z faktu, że w tej grupie było więcej więźniów "stwarzających problemy wychowawcze". Czyli jeśli statystycznie bruneci częściej grypsowali niż blondyni to statystycznie lepsze traktowanie blondynów nie miało związku z kolorem włosów.
            • avatar
              vacotivus
              0
              Zawsze będzie ryzyko, że AI kogoś niesłusznie uzna za przestępcę. Takie algorytmy nigdy nie działają ze 100% pewnością.