Internet

Co Facebook wie o deepfake?

przeczytasz w 3 min.

Deepfake to przeróbka treści wykonywana przy pomocy sztucznej inteligencji. Potrafi odmienić dowolne nagrania filmowe, ale można ją zastosować także w czasie rzeczywistym i wykorzystać do przestępstw. Jak z tym problemem ma pomagać AI Facebooka?

Technologia deepfake to generowane przy pomocy sztucznej inteligencji przeróbki materiałów multimedialnych. Ingerencja może dotyczyć zmian warstwy wizualnej oraz dźwiękowej, ale zawsze niezbędne jest deep learning, czyli uczenie głębokie. Produkcjom filmowym dodaje fantastycznych efektów. Niestety, w świecie powszechnych wideo spotkań i mediów społecznościowych jest zagrożeniem numer jeden.

Jak powstaje deepfake?

Deepfake jest tworzony przez zmiksowanie dowolnej zmiany z wzorcowym materiałem oryginalnym i to w bardzo zaawansowany sposób. Przy pomocy głębokich sieci neuronowych podrabiana jest mimika, gesty, ton i barwa głosu. Do tego stopnia, że pomyłka obserwatora jest wykluczona:

Jak widać, wystarczy uderzyć odpowiednio wysoko, żeby efekty były groźne. Na dodatek, deepfake może dotyczyć rozmów na żywo.

Technologia deepfake staje się też coraz bardziej powszechna i może posłużyć przeciwko każdemu, kto dysponuje czymkolwiek wartościowym. Od prezesa banku, po ładną nastolatkę. Czasem wystarczy, że znajdziemy się w polu rażenia niestabilnej psychicznie matki.

Wiadomość jest jednak dobra. Jest trudniej, niż z wysłaniem maila z odpowiedniej skrzynki e-mail, ale deepfakes można ograniczyć. Nie są potrzebne konferencje prasowe i tajne posiedzenia sejmu. Mamy od tego całkiem zmyślną sztuczną inteligencję. Jak z niej korzystać?

Jak wyłapać deepfake?

Standardowe wykrywanie deepfake’ów polega na przyjrzeniu się, czy w materiale multimedialnym majstrowano. Najlepiej i najszybciej robi to za nas sztuczna inteligencja. Aparat cyfrowy lub kamera zostawiają w tworzonym materiale rodzaj odcisku palca. Generator AI, który zmienia materiał, także zostawia tego typu ślady. Znalezienie czegoś więcej, niż ślad sprzętowy oznacza, że mamy do czynienia z deepfake'iem. Nauczenie tej zasady AI jest względnie proste.

Co zmienia inżynieria odwrotna AI Facebooka?

Realnie detekcja zazwyczaj kończy się w tym punkcie. Nie jest to jednak koniec możliwości AI. Można jeszcze wykonać tak zwaną atrybucję obrazu, czyli wskazać, który ze znanych modeli generacyjnych został użyty do wytworzenia znalezionego deepfake. Pod warunkiem, że model zostanie przedstawiony AI w trakcie treningu.

Wykorzystywanie modeli generatywnych jako wzorca daje AI większe możliwości, niż posługiwanie się przykładami. Naukowcy jednak omijają tę drogę, bowiem modele są tworzone nieustannie i nie ma zamkniętego ich zbioru.

Facebook zrobił inaczej i właśnie tę możliwość zaczął rozwijać:

Nasza metoda inżynierii odwrotnej przenosi atrybucję obrazu o krok dalej, pomagając wydedukować informacje o konkretnym modelu generatywnym na podstawie tworzonych przez niego deepfake. Po raz pierwszy naukowcy byli w stanie zidentyfikować właściwości modelu użytego do stworzenia deepfake'a bez wcześniejszej znajomości modelu

Inżynieria odwrotna, którą wypracował Facebook na bazie projektu Deepfake Detector i współpracując z MSU (Michigan State Uniwersity), pozwala na zbudowanie modelu generatora na podstawie efektów jego pracy. Nie jest to tylko atrybucja obrazu, bo model generatywny nie musi być przedstawiony podczas treningu. Sztuczna inteligencja umie stworzyć go sama, jeśli znaleziony deepfake nie pasuje do znanego już modelu.

Inżynieria odwrotna od Facebook: co to zmienia?

Technologia AI Facebooka jest bardzo przydatna. Przede wszystkim dodaje prędkości. Zanim człowiek będzie w stanie przygotować model, AI stworzy go sobie sama. Wystarczy jeden podrobiony materiał, żeby zaczęła.

Oprócz tego można liczyć na jej większą skuteczność. W sytuacji, kiedy AI działa tylko na podstawie przykładów, można probować ją oszukiwać. Jeśli zastosowana zostanie inżynieria odwrotna i detekcja oparta jest na budowie modelu, zmiennych jest więcej i staje się to trudniejsze.

Czy AI od Facebook jest niebezpieczna?

AI Facebooka z inżynierią odwrotną ma w sobie też coś z policjanta, bo przy jej pomocy łatwiej wyłapać regularności. Nie jest jednak rozwiązaniem na miarę rozszczepienia atomu. Choć zawsze warto, to nie czas, żeby się zastanawiać czy robimy z niej bombę, czy elektrownię.

Rzeczywiście, duża ilość deepfake'ów w tym samym modelu oznacza, że pochodzą z tego samego źródła. Czy to wystarczy, żeby wskazać winnego? Facebook sugeruje, że tak, ale zbyt duża ilość oznacza, że model stał się powszechnie dostępny. Trzeba jeszcze wyłapać, ile deepfake’ów model wygenerował w terminie, który jest istotny.

Czy AI Facebooka jest skuteczna?

Na pewno skuteczność zweryfikować może dopiero dopiero przyszłość. Wiele zależy od tego, czy wybrane przez Facebooka hiperparametry, służące do budowy modelu, są trafne. Według naukowców modele generatywne różnią się między sobą głównie architekturą sieci i funkcjami utraty treningu. Na tym więc skupione zostały prace Facebooka oraz MSU. Wyniki są publicznie dostępne, więc jest szansa, że ewentualne błędy zostaną skorygowane.

Czy tylko Facebook AI zajmuje się detekcją deepfeake?

Facebook nie jest ani jedyny, ani pierwszy. Pytaniem otwartym pozostaje, czym dysponują firmy działające w organizacji non-profit o nazwie Reality Defender (RD 2020). Jest to inicjatywa z obszaru AI, w którą zaangażowane są: Uniwersytet Berkeley, Monachijski Uniwersytet Techniczny (TUM) i wytwórnia filmów AGBO (ci od Avengersów). Ale także wszyscy ważni w świecie AI: Microsoft, Google oraz Twitter.

Facebook nigdy się nie angażował, bo też nie byłby w tym towarzystwie mile widziany. Cała inicjatywa była skupiona walki z fałszywymi informacjami podczas wyborów prezydenckich 2020 w USA. W momencie, kiedy powstała, Facebook nadal mierzył się z potężnymi potknięciami z czasu poprzedniej kampanii prezydenckiej.

To RD 2020 skupia więcej naukowców i to często niezależnych. Ma też, przynajmniej teoretycznie, dostęp do większej ilości danych. Nie publikuje jednak wyników swoich prac pod wspólnym szyldem. Nie oznacza to, że ich nie ma. YouTube od Google stosuje detekcję deepfake’ów i tak samo Twitter. Co tak naprawdę porabia w tej kwestii Microsoft, też może być bardzo ciekawe.

Żródła:Facebook AI, Twitter, TED, Reality Defender

Komentarze

9
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    mikrofonkameragps
    3
    A wiedzą coś o prism ?
    • avatar
      hovzi
      3
      Niestety, będzie to jedna z bardziej niebezpiecznych technologii naszych czasów.
      • avatar
        .Alx.
        3
        Problem deepfake polega na tym, że jesteśmy skazani na uczciwość koncernów (tutaj Facebooka), tylko zaawansowana technologia jest w stanie walczyć z tą manipulacją.
        ...A UCZCIWOŚĆ u Facebooka to pojęcie czysto abstrakcyjne...

        Nie tylko wspomniane tutaj wybory prezydenckie 2020 pokazały jak silnie koncerny angażowały się w manipulację, ale najświeższa sprawa, gdzie po ujawnieniu maili od głównego doradcy medycznego Białego Domu, doktora Anthonego Fauci okazało się, że PRZED pandemią ustalił on z Markiem Zuckerbergem, że Facebook będzie blokował wszelkie informacje o sztucznym pochodzeniu wirusa (!!!).

        Dlatego nie mam wątpliwości, że Facebook będzie zwalczał deepfake ...ale tylko te, których sam nie stworzył...

        Jak amerykanie sponsorowali badania w Wuhan nad wzmacnianiem koronawirusa - Przesłuchania dr Fauci przed Senatem :
        https://wgospodarce.pl/informacje/96130-paul-amerykanie-sponsorowali-badania-w-wuhan-nad-wzmacnianiem-koronawirusa
        • avatar
          greghostor
          -1
          dobre