Internet

Sztuczna inteligencja naraziła 10-latkę na śmierć

przeczytasz w 2 min.

Wirtualni asystenci stają się już częścią naszego życia. Ich działanie oparte o sztuczną inteligencję, która stale się uczy może jednak doprowadzić do tragedii. Doskonałym tego przykładem jest sytuacja z USA, gdzie Amazon Alexa kazała 10-latce włożyć monetę do… kontaktu.

“Włóż monetę do kontaktu” - powiedziała Alexa zapytana o “jakieś wyzwanie”

Do czego można wykorzystywać wirtualnych asystentów w naszych domach? Ano przede wszystkim do obsługi smart home - sterowanie oświetleniem, temperaturą etc. Możemy oczywiście (kiedy poczujemy się samotni) porozmawiać ze sztuczną inteligencją. W takiej sytuacji znalazła się 10-latka ze Stanów Zjednoczonych, która poprosiła Alexę o wymyślenie “jakiegoś wyzwania”.

Co wymyślił system Amazona, żeby zająć dziewczynkę? Tzw. “penny challenge” - wyzwanie, które polega na umieszczeniu monety (jednopensówki) na odsłoniętych bolcach ładowarki częściowo włożonej do gniazdka elektrycznego.

Penny challenge może wywołać zwarcie instalacji elektrycznej, co może skutkować wybuchem pożaru i porażeniem prądu.

Całe szczęście - do tragedii nie doszło, a Amazon już zaktualizował Alexę

Do niebezpiecznej sytuacji nie doszło ze względu na obecność matki 10-latki. Ta w porę zareagowała na propozycję Alexy, ale przy okazji broni swojego dziecka twierdząc, że jest ono na tyle roztropne, że i tak nie wykonałaby wyzwania penny challenge.

Sprawa została również przekazana do Amazona, który natychmiast zaktualizował Alexę pozbawiając ją tym samym penny challenge z pamięci.

Czy w przyszłości takich sytuacji będzie więcej?

Według mnie - tak. Sztuczna inteligencja ma to do siebie, że skądś musi pobierać wzorce. “Doskonałym” ich źródłem jesteśmy my, ludzie - i to jest największy problem.

Każdy z nas postępuje według nieco innych zasad i generalnie wszyscy zachowujemy się odmiennie. Nikt nie jest doskonały, a maszyny ucząc się od nas nabywają również to, co powszechnie może być uważane za nieodpowiednie.

Kogo jednak winić w sytuacji, kiedy w wyniku niebezpiecznej propozycji ze strony wirtualnego asystenta dojdzie do tragedii? To pytanie pozostawiam bez odpowiedzi - podzielcie się swoją opinia w komentarzach.

Źródło: bbc.com

Komentarze

27
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Dexterr
    11
    Sorry ale w USA trzeba pisać na kubku z kawą że jest gorąca bo część ludzi tego nie ogarnia więc ja bym tu Alexy nie winił :)
    • avatar
      Noritsu
      9
      To w ścianie po polsku nazywa się "gniazdko" a nie żaden "kontakt". I chodzi o położenie monety na bolcach wtyczki a nie włożenie jej do "kontaktu".
      • avatar
        Dekard
        9
        Można zaryzykować stwierdzenie, że SI Amazona już obrała sobie konkretny cel w stosunku do ludzi ;) Taki głosowy "terminator"
        • avatar
          KENJI512
          4
          Zakażmy samochód, bo 10-latek go odpalił i myślał, że jak służy do jazdy to każda jazda jest OK i nic mu się nie stanie...

          Jeżeli nie uczymy dzieci myśleć i odpowiedzialności (gniazdka = zagrożenie, nie wkładamy palców i widelców) to potem takie kwiatki wychodzą. Żadna technologia nie jest w 100% "idiotoodporna" i to naturalne, że jakieś "kwiatki" w każdym AI się pojawią.
          • avatar
            Skaza
            1
            Od kiedy Alexa jest sztuczną inteligencją? Dlaczego rozmaite serwisy próbują wmówić nam, że proste urządzenia posługujące się prostymi skryptami, stanowią sztuczną inteligncję? Dlaczego sugerujecie, że ten badziew ma jakąś wolę lub czegoś chce? Dlaczego karmicie nas śmieciowymi artykułami?
            • avatar
              kazitut
              0
              W zasadzie, obecnie standardem jest, instalacje z wyłącznikiem różnicowo-prądowym.
              (przynajmniej jednym). Dotyczy to domów i nie tylko. W naszym kraju.
              W zasadzie, po modernizacji, elektrycznej, starego domu, pokazany efekt, nie ma prawa bytu.
              Ale zagrożenie jest.
              • avatar
                youkai20
                0
                Czytałem już o tym na Bezprawniku. Cóż, niespecjalnie mnie to zaskakuje. Szczególnie biorąc pod uwagę fakt, że sytuacja miała miejsce w "Kraju challengy".
                • avatar
                  biuro74
                  0
                  Miałem kiedyś swój "penny challenge" - jak byłem mały, w rodzinnym domu mieliśmy zegar z kukułką, nakręcany długimi, metalowymi łańcuszkami. Pech chciał, że zepsuło się gniazdko elektryczne znajdujące się idealnie pod zegarem, a "zepsucie" polegało na wyleceniu gniazdka ze ściany (panie Noritsu powyżej, kiedyś mówiło się w języku polskim "kontakt" na gniazdka i ta forma została nawet do dzisiaj - ponieważ nie każdy jest elektrykiem i nie musi znać fachowej terminologii, podobnie się dzieje z wieloma innymi rzeczami).. .zapewne wskutek obrobienia gipsowej gładzi w środku otworu ściany. Nieważne. Kontakt wystawał od ściany trochę i to było ważne - że lekko odsłaniał od góry kabelki z wewnątrz. No i razu pewnego pięknego chwyciłem te łancuszki, aby zegar nakręcić, sciągnąłem je więc w dół i w tym momencie poczułem nagły i mocny skurcz mięśni obu rąk ;-) zdążyłem tylko zauważyć, że łańcuszek wlazł w tę szczelinę pomiędzy ścianą, a gniazdkiem i było głośne "puk". Wywaliło korki, a ja nie musiałem się zastanawiać, jak łapie się elementy pod napięciem ;-) bo samo "puściło". Uroki PRLu.
                  • avatar
                    trojan116
                    0
                    Tylko w sumie co "asystent" winny to jest program który ma odpowiadać na pytania itd jeśli ktoś mu zadał pytanie [ w tym przypadku dziecko] o to jak wykonać jakieś durne zadanie. Asystent nie odróżnia czy coś jest dobre czy złe bo nikt jeszcze nie określił w pełni warunków odpowiedzi czy są "bezpieczne i moralne" czy nie...
                    Samo usunięcie odpowiedzi z asystenta dużo nie zmieni bo wystarczy że pojawi się nowe wyzwanie równie głupie i zabawa znowu aktualna bo asystent potraktuje to jak sytuacje opisaną przeze mnie wyżej czyli pytanie od użytkownika > odpowiedź asystenta bez określenia jej szkodliwości
                    • avatar
                      mrocznysedes
                      -1
                      Sztuczna inteligencja zadziałała jak najbardziej poprawnie. 10 letni gówniak potrafi być niezwykle upierdliwy. Wygląda na to, że sztuczna inteligencja za najlepsze rozwiązanie uznała pozbycie się bachora na zawsze. xD
                      • avatar
                        Gnom_Z_Piany2
                        -1
                        jak zwykle rozmywanie odpowiedzialności. za taki przypadek Amazon powinien być ukarany milionowymi karami.
                        • avatar
                          fonzie
                          -2
                          Średnio rozgarnięta musiała by być ta 10-latka żeby zrobić coś takiego.
                          Ja mając 5 lat już wiedziałem czym kończy się wtykanie palców do nosa "śwince".
                          Nie raz podczas zabawy korki wysadziłem i wychodziłem z pokoju z fryzową stylizacją na einsteina i poczerniałymi palcami xD
                          Rodzina odetchnęła z ulgą kiedy nauczyłem się korzystać z różnych zasilaczy , zchodząc tym samym z 220V na 9,12 i 24V przy moich zabawach.
                          • avatar
                            Fa_sol
                            -4
                            W wieku 10-ciu lat jeszcze nie wiedziała że nie należy bawić się gniazdkiem elektrycznym? Cóż, skoro jej rodzice tego nie nauczyli to przynajmniej w inny sposób zdobyła tą wiedzę. Niech się cieszy że miała więcej szczęścia niż rozumu.
                            • avatar
                              AirdropGbox
                              0
                              Uwaga Airdrop tokenow od Gbox! Uzyj mojego linka z zaproszeniem a oboje otrzymamy dodatkow po 200 tokenow! Uwaga Airdrop trwa tylko do 13 stycznia wiec spiesz sie!!!

                              https://gbox.space/r?c=JKnncXSo