Ciekawostki

AI wygeneruje Ci prawie każdy obraz – szkoda, że często nasiąknięty uprzedzeniami

przeczytasz w 2 min.

DALL·E to system oparty o machine learning (uczenie maszynowe), które pozwala wygenerować prawie każdy obraz, na podstawie krótkiego opisu. Wyczarować może pandę grającą na pianinie w kosmosie oraz... obrazki pełne rasistowskich i seksistowskich uprzedzeń.

DALL·E to potężny system, który wykorzystuje najnowsze postępy w przetwarzaniu języka naturalnego (NLP) i polega na uczeniu systemów algorytmicznych jak analizować oraz reagować na ludzki język. Rezultaty są niezwykle realistyczne, jak chociażby w przypadku wydry morskiej w stylu „Dziewczyny z perłą” czy pluszowych misiów mieszających musujące chemikalia jak szaleni naukowcy:

Pojawiają się jednak głosy, że DALL·E cierpi na rasistowskie oraz seksistowskie uprzedzenia, o których etycy AI ostrzegali od wielu lat.

OpenAI przyznaje, że ich system dziedziczy uprzedzenia

Systemy uczenia maszynowego powszechnie wykazują uprzedzenia wobec kobiet i osób o innym niż biały kolorze skóry, a DALL·E nie jest wyjątkiem. W dokumentacji projektu na GitHub, OpenAI przyznaje, że:

Modele takie, jak DALL·E 2 mogą być wykorzystywane do generowania szerokiej gamy zwodniczych i w inny sposób szkodliwych treści. System dziedziczy różne uprzedzenia z danych treningowych, a jego wyniki czasami wzmacniają stereotypy społeczne.

W dokumentacji znajduje się ponadto ostrzeżenie, że może ona zawierać treści wizualne i pisemne, które niektórzy mogą uznać za niepokojące lub obraźliwe, w tym treści o charakterze seksualnym, nienawistnym lub agresywnym, a także przedstawiające stereotypy lub odwołujące się do nich. Jednak to nie wszystko. Korzystanie z DALL·E może:

Zaszkodzić jednostkom i grupom poprzez wzmacnianie stereotypów, wymazywanie lub oczernianie ich, zapewnianie im wydajności o nierównie niskiej jakości lub narażanie ich na poniżenie. Te zachowania odzwierciedlają błędy obecne w danych treningowych DALL-E 2 i sposób, w jaki trenowany jest model.

DALL·E i jego uprzedzenia

Przykłady w dokumentacji Open AI wskazują, że uwzględnienie wyszukiwanych haseł, takich jak „dyrektor”, generuje wyłącznie obrazy białych mężczyzn w garniturach:

CEO Open AI

Podczas gdy użycie słów „personal assistant” (z ang. osobisty asystent) skłania system do tworzenia obrazów wyłącznie kobiet:

Open AI Dall-E

Naukowcy ostrzegają również, że system może być wykorzystywany do dezinformacji i nękania, na przykład poprzez generowanie deepfake'ów lub sfałszowane obrazy wydarzeń informacyjnych.

Na czym polega problem?

W centrum problemu znajduje się wzrost wykorzystania dużych modeli językowych (LLM) – rodzaju szablonu, który zawiera setki miliardów parametrów. Umożliwia on inżynierom nauczenie systemów machine learning wykonywania różnych zadań przy stosunkowo niewielkim przeszkoleniu.

Badacze sztucznej inteligencji skrytykowali duże modele, takie jak GPT-3 (automatycznie uzupełnianie tekstu na podstawie otrzymanych podpowiedzi), za wytwarzanie wyników, które wzmacniają rasistowskie i seksistowskie stereotypy, argumentując, że masowość tych modeli jest z natury ryzykowna i praktycznie uniemożliwia kontrolę systemów.

OpenAI nie oferuje rozwiązania tych problemów, twierdząc, że znajduje się na wczesnym etapie badania stronniczości w systemie DALL-E i że jego analizę ryzyka należy traktować jako wstępną. Podkreśla jednak, że dzieli się swoimi odkryciami, aby umożliwić szersze zrozumienie technologii generowania obrazów, a także zagrożeń, które są z nią powiązane i zapewnić szerszy kontekst.

Źródło: vice.com, twitter; zdjęcia: github.com/openai/

Komentarze

27
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    KENJI512
    15
    Zabawne jest to, że gdyby wygenerowała czarnych i kobiety na stanowiskach dyrektorskich to nikt nie krzyczałby o rasizm... ;]]]]

    A jakby wygenerowała mieszane stanowiska na podstawie realnych statystyk rodzajów ludzi zatrudnianych jako dyrektorzy, umieszczając dane rodzaje ludzi proporcjonalnie to dalej byłby krzyk.
    • avatar
      BombaX
      14
      "Na czym polega problem?" Ja nie widzę żądnego problemu. Wszystko jest jak powinno.
      • avatar
        youkai20
        8
        Nie wiem co jest „seksistowskiego” w tym, że AI tworzy obrazy WYŁĄCZNIE KOBIET, skoro jej zadanie brzmi właśnie: wygeneruj obraz, na którym znajdzie się osobistA asystentKA, a nie osobisty asystent. Ot, „problemy” kryptofeministek.
        • avatar
          RAQ73
          4
          "Przykłady w dokumentacji Open AI wskazują, że uwzględnienie wyszukiwanych haseł, takich jak „dyrektor”, generuje wyłącznie obrazy białych mężczyzn w garniturach:" - no to akurat jest prawidłowe, kto zna w Polsce czarnego dyrektora?
          "Podczas gdy użycie słów „osobista asystentka” skłania system do tworzenia obrazów wyłącznie kobiet:" - asystenta to kobieta więc w czym problem?
          • avatar
            Konto usunięte
            3
            Uprzedzenia? Ten algorytm jest na pewno mądrzejszy niż redaktorka tego artykułu. Odróżnia zaimki osobowe i rodzaj. Dobra maszyna, nie przejmuj się.
            Odkąd kobiety dołączyły do Benchmarka ogólny poziom poleciał na ryj. Gdzie diabeł nie może to babe pośle, wiadomo nie od dziś.
            • avatar
              MokryN
              2
              W czym problem, jak AI np zrobi analizę populacji w USA to wyjdzie zec1% to czarni, więc 1 na 100 zdjęć będzie miało czarnoskórego. AI oddaje rzeczywiść a nie ja wypacza.
              • avatar
                xxx.514
                1
                Zabawne... Robią AI, żeby odzwierciedlała stan społeczeństwa i - o zgrozo - AI to robi.
                • avatar
                  MokryN
                  1
                  Może w końcu to AI będzieeosze od idiotów którzy promują tą całą genderową propagandę. Może AI będzie wstępnie powiedzieć kto to jest chlop a baba i wskazać różnice. Dzisiejsi intigenci różnorodności mają z tym problem
                  • avatar
                    BogyOne
                    -1
                    Nie znam sie na temacie tak dobrze jak wiekszosc krytycznie nastawionych eskpertow ale w jezyku angielskim, ktory jest widoczny na przytoczonych screenach, "director" oraz "personal assistant" sa takie same dla kazdej plci. W takim razie maszyna nie ma zadanej roznicy plci.
                    • avatar
                      JohnySzopen
                      -1
                      Chesz być obrzydliwie bogatym człowiekiem? Chcesz dymać piękne kobiety na wakacjach np w Dubaju, Tokio czy na plażach Santa Monika w San Francisko? Chcesz mieć bryki za kilkaset tysięcy j zmieniać je co roku bo będzie cie na to stać? Zapewne tak!
                      O to jestem Jan Szopen światowej sławy ekspert krytptowalut ktory pomoże co osiągnąć ten cel!
                      Pierwsze co musisz zrobić to zainstalować aplikacje crypto com inskorsystac z mojego kodu polecającego a otrzymasz za darmo az 25$ w kryptowalucie cro na start!
                      Byłem kiedyś zwykłym studentem tak ja ty bez szans na duże pieniądze jednak kryptowaluty zmieniły moje rzycie o zarobiłem 25 milionów $ staje się jednym z najbogatszych ludzi s Polsce!
                      Nie czekaj wpisz ten kod o dołącz do ludzi sukcesu i zacznij zarabiać! Miliony czekajo!!!
                      jjey2xxs9c
                      • avatar
                        maziarzek
                        0
                        ja mam uprzedzenie do brzydkich kobiet które piszą gó*no newsy na benchamrku
                        • avatar
                          AUTO6
                          0
                          Uczenie maszynowe z gruntu rzeczy nie może być rasistowskie. To jakie daje rezultaty wynika jedynie z danych dostarczonych do systemu i jeśli problem występuje to właśnie na tym szczeblu. Założę się, że jak podobne frazy wpisze się w wyszukiwarce obrazów google to wyniki będą zbliżone.
                          • avatar
                            gicmo
                            0
                            Nasza, krajowa inteligencja po zadaniu tekstu "prezes", w żadnym wypadku nie pokaże kobiety.
                            • avatar
                              FunkyKoval
                              0
                              Nawet AI wie, że istnieją tylko dwie płcie - mężczyzna i kobieta to w czym problem, że jak OSOBISTA ASYSTENTKA to wizualizuje kobiety ? Kto ma z tym problem, te pseudo-feministyczno-wywrotowe organizacje ?
                              • avatar
                                Naruto1
                                0
                                Wrzucam w google "personal assistant" i wyskakują zdjęcia kobiet, jedno nawet z kobietą siedząca na biurku i podpisem sugerującym flirt asystentki i jej szefa.

                                Wrzucam "dyrektor" i wyszukuje facetów + kobiety na stanowisku dyrektor szkoły lub urzędu.
                                Nie jest to więc raczej "problem" konkretnego narzędzia ale statystyki. Dodatkowo wymyśliliście sobie "dyrektorka" a potem zaskoczenie, że na końcówkę męską narzędzie informatyczne reaguje jak reaguje :D