Ciekawostki

Czy Sztuczna Inteligencja może być rasistą? - bo przecież uczy się na przykładach

przeczytasz w 2 min.

Algorytmy SI są obiektywne. Nie faworyzują, ani nie deprecjonują nikogo i niczego. Jednak są też bardzo surowe i bezpośrednie. Mówią bez ogródek. Niczym człowiek z zespołem aspergera.

Niezależnie od tego jak autonomiczne i niezależne od naszych wzorców myślowych algorytmy stoją za różnymi wcieleniami Sztucznej Inteligencji (SI), jest ona niczym dziecko, które uczy się od rodziców. A tymi w przypadku komputerowej SI jesteśmy my sami. To programiści, naukowcy, specjaliści w różnych dziedzinach, tworzą podstawy mechanizmów maszynowego nauczania, z których potem wykluwa się SI. Ta uczy się na przykładach z życia wziętych, w których nie brak niewłaściwych postaw, wzorców. I tak jak małe dziecko nie będąc odpowiednio ukierunkowana, nie potrafi stwierdzić czy postępuje w sposób rażący innych ludzi czy nie. Sztucznej Inteligencji nie można obrazić (a przynajmniej nic takiego na razie nie stwierdzono), ale czy ona wie, że konsumenci jej pracy nie muszą być tak tolerancyjni i wyrozumiali?

Mówi się, że dobrze wytrenowana SI nie powinna się mylić, a przynajmniej popełniać stosunkowo niewiele błędów. Lecz mówi się też, że problemem SI jest niewiedza co do tego czy się myli jeśli nie dysponuje odpowiednią ku obiektywnej ocenie wiedzą. Mówiąc krótko, SI nie wie czego jeszcze nie wie. I tak jak małe kilkuletnie dziecko jest przekonana, że jej wiedza to cały świat.

Opisowa baza obrazów ImageNet

ImageNet to internetowe repozytorium obrazów, które stworzono w 2009 roku jako podstawę do rozwijania algorytmów SI. Zawiera 14 milionów obrazów, które posegregowano na 22 tysiące wizualnych kategorii. Dane były weryfikowane ręcznie, a teraz algorytmy SI wspomagane bazą ImageNet uczą się oceniania i klasyfikacji wizualnej obrazów.

I tu zaczynają się schody. Pewne określenia, jak „czarnuch” czy „pinda” są ubliżające w prawie każdej sytuacji. A tak właśnie zaklasyfikowane są/były niektóre z obrazów w ImageNet.

ImageNet zdecydowało się przetrzebić swoją bazę portretów (zawiera około 1,5 miliona obrazów, z których mniej więcej połowa stanowi zły przykład), bo to one są głównym źródłem zamieszania. W efekcie pomoże to eliminować złe nawyki przejmowane przez uczące się SI. Problem nagłośniony został w ramach projektu ImageNetRoulette, którego twórcy zachęcali ludzi do wrzucania różnych zdjęć na stronę projektu, by móc potem obserwować jak są one klasyfikowane przez SI wspomagane bazą obrazów ImageNet.

Okazało się, że taka SI nie widzi nic złego w opisywaniu zdjęć ludzi niewybrednymi. rasistowskimi, mizoginistycznymi epitetami, które faktycznie są w codziennym użyciu, ale których nie powinno się stosować choćby ze względu na przyzwoitość. A taka powinna być bezstronna SI.

SI się nie myli, powiela tylko nasze błędy

Co ciekawe problemem nie są pomyłki SI. Bo ta w istocie się nie myli. Klasyfikuje zdjęcia w sposób odpowiadający nawykom jakich nabyła w trakcie uczenia. W sposób, który dla wielu ludzi nie byłby niczym złym, bo wyrośli oni w świecie pozbawionym większych pokładów empatii.

Choć problem istnieje, można zastanawiać się czy jego znaczenie nie zostało rozdmuchane przez organizatorów projektu ImageNet Roulette. Rasizm i podobne mu postawy często powstają na fundamencie obaw człowieka przed niewłaściwym traktowaniem danych grup osobowych. Zaczynamy bać się stosować określeń, które kiedyś nie wywoływały zgorszenia.

Z drugiej strony ludzie często posługują się epitetami nie dostrzegając jak bolesne mogą one być dla osób nimi obdarzonych. Te określenia wrastają w kulturę społeczności i przestają być widziane jako szkodliwe. Co gorsza ich znaczenie silnie zależy od kontekstu, a z prawidłowym jego postrzeganiem SI zdaje się mieć duże problemy.

SI świadoma błędów twórcy

Podsumowując. SI wciąż się doskonali, ale dopóki nie będzie w stanie „czytać między wierszami” nie będzie niczym więcej niż wołem roboczym, bardzo inteligentnym, ale niezbyt świadomym tego co czyni. Zresztą może to i dobrze, bo uzyskanie świadomości przez SI to moment, którego chyba się wszyscy obawiamy.

Źródło: Inf. własna, ImageNetRoulette

Komentarze

14
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    KENJI512
    7
    Kiedy nawet sztuczna inteligencja nie chce imigracji Bliskiego Wschodu w kraju xD
    • avatar
      levusek1992
      7
      Jeżeli SI przeanalizuje dane ze świata i wyjdzie, że za większość przestępstw odpowiedzialni są czarnoskórzy, to proste wiadomo, że będzie dążyła do eliminacji tego gatunku :D
      • avatar
        levusek1992
        3
        Jak dziecko. Źle wychowasz to będzie złe.
        • avatar
          jaredj
          0
          Cały artykuł jest oparty na błędnym założeniu, że SI powinna być taka jak ludzka inteligencja. A tak nie jest. SI jest pozbawiona choćby jednej ludzkiej cechy - uczuć. To uczucia powodują, że określenia takie jak czarnuch czy debil są pejoratywne. Dla SI są one po prostu określeniami, jednymi z wielu. Bo SI nie musi określać kogoś "czarnuch", może określić osobę o czarnej karnacji np. murzyn. Ale im więcej ludzi będzie określało murzynów czarnuchami, SI uzna, że jest to po prostu powszechnie obowiązujące określenie. Jak SI ma zdecydować co jest określeniem negatywnym a co nie? Musiała by mieć ludzkie uczucia. My możemy tylko nauczyć SI, że konkretne określenia są złe, ale sama nigdy do tego nie dojdzie. Może, na podstawie pewnej grupy określeń, dojść, że określanie ludzi głupimi, i wszelkimi pochodnymi tego, jest źle przyjmowane, ale skąd ma wiedzieć, że niektóre określenia dotyczące cech ludzi, np. koloru skóry, czy pochodzenia, są przyjmowane jako negatywne? Skąd ma w ogóle wiedzieć, co to jest przykrość, zadowolenie, smutek?
          I pytanie ciekawostka - co zrobić, by zasymulować uczucia u SI? To moim zdaniem będzie przełom w budowie SI, zbliżonych cechami inteligencji do ludzi.
          • avatar
            xxx.514
            0
            Był projekt Microsoftu zdaje się, wrzucili swojego bota na publikę, żeby uczył się pisać z ludźmi. Użytkownicy różnych czaterni, gdzie owo SI było aktywne, nauczyli go jak być rasistą, nazistą, homofobem, jak kląć co drugie słowo i jeszcze kilka innych dość negatywnych cech charakteru. Projekt dość szybko został zdjęty, ale wyniki pozostały. Żeby to zadziałało, to SI musi stworzyć SI, człowiek nie może się do tego mieszać, w innym wypadku zawsze będzie jakaś skaza.
            • avatar
              michael85
              0
              Niestety w dzisiejszym świecie mówienie prawdy jest uznawane za rasizm. Stąd w ogóle taki problem w odniesieniu do SI. Prawda jest taka że każdy logiczny człowiek po przeanalizowaniu danych z różnego rodzaju dziedzin staje się rasistą! Nawet prof. Watson, odkrywca struktury DNA!