Aplikacje mobilne

Moderatorzy TikToka narzekają na treści, które muszą oglądać w ramach szkoleń

przeczytasz w 2 min.

Pracownicy zatrudnieni w firmie współpracującej z TikTok narzekają na treści, które przeglądają w ramach szkoleń i do których mają dostęp setki pracowników. Są to zdjęcia przedstawiające seksualne wykorzystanie nieletnich - i to w zastraszającej ilości.

Moderatorzy TikTok podczas szkoleń oglądają treści o charakterze erotycznym z udziałem nieletnich

Temat radzenia sobie z pracą moderatorów TikTok poruszył Forbes, który dotarł do informacji od byłych pracowników zewnętrznej firmy odpowiedzialnej za moderowanie treści przeznaczonych na jeden z najpopularniejszych serwisów społecznościowych.

TikTok jako aplikacja polegająca na publikowaniu krótkich (do 3 minut) filmów jest miejscem, które należy w istotny sposób kontrolować w kontekście tego, co pojawia się na profilach użytkowników. Właśnie z uwagi na to TikTok współpracuje z zewnętrzną firmą Teleperformance, która odpowiada za nadzorowanie publikowanych treści.

Mam córkę i nie sądzę, żeby to było w porządku. Nie powinni (red. TikTok) używać czegoś takiego do szkoleń - mówi jeden z byłych pracowników Teleperformance.

Jak się okazuje - pracownicy Teleperformance mają dostęp do specjalnego arkusza kalkulacyjnego, w którym znajduje się ogromna baza treści (zdjęć) o charakterze erotycznym z wykorzystaniem dzieci. Ten ma służyć jako swego rodzaju materiały szkoleniowe. Daily Required Reading (DDR), bo tak firma nazywa ów arkusz to baza setek materiałów do którego dostęp mają setki pracowników - zarówno zatrudnieni w TikToku, jak i Teleperformance.

„Materiały szkoleniowe” są dostępne, ale firma nie chce wypowiadać się na ich temat

Sami pracownicy firmy odpowiedzialnej za moderowanie treści na TikToku twierdzą, że „gdyby rodzice wiedzieli o tych materiałach, na pewno spaliliby TikTok”. Dyrektor ds. zaufania i bezpieczeństwa w Teleperformance twierdzi natomiast, że „firma nie wykorzystuje w szkoleniach filmów zawierających wyraźne treści przedstawiające wykorzystywanie dzieci i nie przechowuje ich w swoich narzędziach kalibracyjnych”.

To jednak wszystko, co Teleperformance mówi na temat materiałów przedstawiających seksualne wykorzystywanie nieletnich w rozmowie z Forbes. Na więcej pytań odmówiono udzielenia odpowiedzi i generalnie rzecz biorąc - firma nabrała wody w usta. Niewiadomą pozostaje także, czym dokładnie są i co zawierają wspomniane narzędzia kalibracyjne.

Szkolić mają się pracownicy i sztuczna inteligencja

Naturalnym jest, że w dobie mediów społecznościowych, gdzie użytkownicy publikują dziennie miliony postów konieczne jest wykorzystanie sztucznej inteligencji. Moce przerobowe ludzi mogą nie być wystarczające, aby w szybkim tempie moderować stale napływające treści.

Zupełnie inaczej wygląda to w przypadku sztucznej inteligencji. Komputery potrafią rozpoznać zdjęcia, które są niezgodne z prawem i regulaminem platform. Potrzebują jednak do tego materiałów porównawczych - takich treści, które wskażą programowi co jest złe, a co dobre.

W tym wszystkim jednak poszkodowany pozostaje człowiek, który w przeciwieństwie do komputera posiada moralność i emocje. W związku z tym styczność z tak wysoce niebezpiecznymi dla ludzkiej psychiki treściami może być przedmiotem wielu dyskusji. Dyskusyjne jest również to, czy w przypadku materiałów zbieranych przez Teleperformance (głównie są to treści wrzucane przez użytkowników) rozsądne jest pozostawienie do nich dostępu setkom zatrudnionych osób.

Źródło: Forbes

Komentarze

7
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    pawluto
    4
    Czy tylko ja nie mam tik toka i facebooka ???
    • avatar
      Konto usunięte
      1
      tik tak sam w sobie jest chory. oni nadal skupiają się na pojedynczych materiałach recenzowanych w tym badziewiu. za to za grosz pomysłów w stylu 'budowanie reputacji użytkownika', aby dawać mu stopniowo coraz większe zaufanie, aby nie trzeba go było cenzurować.

      tiktok idzie w jakieś krzaki jak wszelkie inne tzw. 'społecznościówki'.
      • avatar
        vacotivus
        1
        > Gdyby rodzice wiedzieli o tych materiałach, na pewno spaliliby TikTok”.

        No to już wiedzą.

        Teraz pora podjąć odpowiednie kroki.