Moderatorzy TikToka narzekają na treści, które muszą oglądać w ramach szkoleń
Pracownicy zatrudnieni w firmie współpracującej z TikTok narzekają na treści, które przeglądają w ramach szkoleń i do których mają dostęp setki pracowników. Są to zdjęcia przedstawiające seksualne wykorzystanie nieletnich - i to w zastraszającej ilości.
Moderatorzy TikTok podczas szkoleń oglądają treści o charakterze erotycznym z udziałem nieletnich
Temat radzenia sobie z pracą moderatorów TikTok poruszył Forbes, który dotarł do informacji od byłych pracowników zewnętrznej firmy odpowiedzialnej za moderowanie treści przeznaczonych na jeden z najpopularniejszych serwisów społecznościowych.
TikTok jako aplikacja polegająca na publikowaniu krótkich (do 3 minut) filmów jest miejscem, które należy w istotny sposób kontrolować w kontekście tego, co pojawia się na profilach użytkowników. Właśnie z uwagi na to TikTok współpracuje z zewnętrzną firmą Teleperformance, która odpowiada za nadzorowanie publikowanych treści.
Mam córkę i nie sądzę, żeby to było w porządku. Nie powinni (red. TikTok) używać czegoś takiego do szkoleń - mówi jeden z byłych pracowników Teleperformance.
Jak się okazuje - pracownicy Teleperformance mają dostęp do specjalnego arkusza kalkulacyjnego, w którym znajduje się ogromna baza treści (zdjęć) o charakterze erotycznym z wykorzystaniem dzieci. Ten ma służyć jako swego rodzaju materiały szkoleniowe. Daily Required Reading (DDR), bo tak firma nazywa ów arkusz to baza setek materiałów do którego dostęp mają setki pracowników - zarówno zatrudnieni w TikToku, jak i Teleperformance.
„Materiały szkoleniowe” są dostępne, ale firma nie chce wypowiadać się na ich temat
Sami pracownicy firmy odpowiedzialnej za moderowanie treści na TikToku twierdzą, że „gdyby rodzice wiedzieli o tych materiałach, na pewno spaliliby TikTok”. Dyrektor ds. zaufania i bezpieczeństwa w Teleperformance twierdzi natomiast, że „firma nie wykorzystuje w szkoleniach filmów zawierających wyraźne treści przedstawiające wykorzystywanie dzieci i nie przechowuje ich w swoich narzędziach kalibracyjnych”.
To jednak wszystko, co Teleperformance mówi na temat materiałów przedstawiających seksualne wykorzystywanie nieletnich w rozmowie z Forbes. Na więcej pytań odmówiono udzielenia odpowiedzi i generalnie rzecz biorąc - firma nabrała wody w usta. Niewiadomą pozostaje także, czym dokładnie są i co zawierają wspomniane narzędzia kalibracyjne.
Szkolić mają się pracownicy i sztuczna inteligencja
Naturalnym jest, że w dobie mediów społecznościowych, gdzie użytkownicy publikują dziennie miliony postów konieczne jest wykorzystanie sztucznej inteligencji. Moce przerobowe ludzi mogą nie być wystarczające, aby w szybkim tempie moderować stale napływające treści.
Zupełnie inaczej wygląda to w przypadku sztucznej inteligencji. Komputery potrafią rozpoznać zdjęcia, które są niezgodne z prawem i regulaminem platform. Potrzebują jednak do tego materiałów porównawczych - takich treści, które wskażą programowi co jest złe, a co dobre.
W tym wszystkim jednak poszkodowany pozostaje człowiek, który w przeciwieństwie do komputera posiada moralność i emocje. W związku z tym styczność z tak wysoce niebezpiecznymi dla ludzkiej psychiki treściami może być przedmiotem wielu dyskusji. Dyskusyjne jest również to, czy w przypadku materiałów zbieranych przez Teleperformance (głównie są to treści wrzucane przez użytkowników) rozsądne jest pozostawienie do nich dostępu setkom zatrudnionych osób.
Źródło: Forbes
Komentarze
7tiktok idzie w jakieś krzaki jak wszelkie inne tzw. 'społecznościówki'.
No to już wiedzą.
Teraz pora podjąć odpowiednie kroki.