Aplikacje mobilne

Moderatorzy TikToka narzekają na treści, które muszą oglądać w ramach szkoleń

przeczytasz w 2 min.

Pracownicy zatrudnieni w firmie współpracującej z TikTok narzekają na treści, które przeglądają w ramach szkoleń i do których mają dostęp setki pracowników. Są to zdjęcia przedstawiające seksualne wykorzystanie nieletnich - i to w zastraszającej ilości.

Moderatorzy TikTok podczas szkoleń oglądają treści o charakterze erotycznym z udziałem nieletnich

Temat radzenia sobie z pracą moderatorów TikTok poruszył Forbes, który dotarł do informacji od byłych pracowników zewnętrznej firmy odpowiedzialnej za moderowanie treści przeznaczonych na jeden z najpopularniejszych serwisów społecznościowych.

TikTok jako aplikacja polegająca na publikowaniu krótkich (do 3 minut) filmów jest miejscem, które należy w istotny sposób kontrolować w kontekście tego, co pojawia się na profilach użytkowników. Właśnie z uwagi na to TikTok współpracuje z zewnętrzną firmą Teleperformance, która odpowiada za nadzorowanie publikowanych treści.

Mam córkę i nie sądzę, żeby to było w porządku. Nie powinni (red. TikTok) używać czegoś takiego do szkoleń - mówi jeden z byłych pracowników Teleperformance.

Jak się okazuje - pracownicy Teleperformance mają dostęp do specjalnego arkusza kalkulacyjnego, w którym znajduje się ogromna baza treści (zdjęć) o charakterze erotycznym z wykorzystaniem dzieci. Ten ma służyć jako swego rodzaju materiały szkoleniowe. Daily Required Reading (DDR), bo tak firma nazywa ów arkusz to baza setek materiałów do którego dostęp mają setki pracowników - zarówno zatrudnieni w TikToku, jak i Teleperformance.

„Materiały szkoleniowe” są dostępne, ale firma nie chce wypowiadać się na ich temat

Sami pracownicy firmy odpowiedzialnej za moderowanie treści na TikToku twierdzą, że „gdyby rodzice wiedzieli o tych materiałach, na pewno spaliliby TikTok”. Dyrektor ds. zaufania i bezpieczeństwa w Teleperformance twierdzi natomiast, że „firma nie wykorzystuje w szkoleniach filmów zawierających wyraźne treści przedstawiające wykorzystywanie dzieci i nie przechowuje ich w swoich narzędziach kalibracyjnych”.

To jednak wszystko, co Teleperformance mówi na temat materiałów przedstawiających seksualne wykorzystywanie nieletnich w rozmowie z Forbes. Na więcej pytań odmówiono udzielenia odpowiedzi i generalnie rzecz biorąc - firma nabrała wody w usta. Niewiadomą pozostaje także, czym dokładnie są i co zawierają wspomniane narzędzia kalibracyjne.

Szkolić mają się pracownicy i sztuczna inteligencja

Naturalnym jest, że w dobie mediów społecznościowych, gdzie użytkownicy publikują dziennie miliony postów konieczne jest wykorzystanie sztucznej inteligencji. Moce przerobowe ludzi mogą nie być wystarczające, aby w szybkim tempie moderować stale napływające treści.

Zupełnie inaczej wygląda to w przypadku sztucznej inteligencji. Komputery potrafią rozpoznać zdjęcia, które są niezgodne z prawem i regulaminem platform. Potrzebują jednak do tego materiałów porównawczych - takich treści, które wskażą programowi co jest złe, a co dobre.

W tym wszystkim jednak poszkodowany pozostaje człowiek, który w przeciwieństwie do komputera posiada moralność i emocje. W związku z tym styczność z tak wysoce niebezpiecznymi dla ludzkiej psychiki treściami może być przedmiotem wielu dyskusji. Dyskusyjne jest również to, czy w przypadku materiałów zbieranych przez Teleperformance (głównie są to treści wrzucane przez użytkowników) rozsądne jest pozostawienie do nich dostępu setkom zatrudnionych osób.

Źródło: Forbes

Komentarze

7
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    pawluto
    4
    Czy tylko ja nie mam tik toka i facebooka ???
    • avatar
      Konto usunięte
      1
      tik tak sam w sobie jest chory. oni nadal skupiają się na pojedynczych materiałach recenzowanych w tym badziewiu. za to za grosz pomysłów w stylu 'budowanie reputacji użytkownika', aby dawać mu stopniowo coraz większe zaufanie, aby nie trzeba go było cenzurować.

      tiktok idzie w jakieś krzaki jak wszelkie inne tzw. 'społecznościówki'.
      • avatar
        vacotivus
        1
        > Gdyby rodzice wiedzieli o tych materiałach, na pewno spaliliby TikTok”.

        No to już wiedzą.

        Teraz pora podjąć odpowiednie kroki.

        Witaj!

        Niedługo wyłaczymy stare logowanie.
        Logowanie będzie możliwe tylko przez 1Login.

        Połącz konto już teraz.

        Zaloguj przez 1Login