Odpowiedź na to pytanie przynosi najświeższy raport YouTube Community Guidelines Enforcement. Trzeba przyznać, że było tego naprawdę sporo.
Firma Google opublikowała raport YouTube Community Guidelines Enforcement za trzeci kwartał 2018 roku. Ma to być dowód na to, że administracja tej popularnej platformy robi sporo, by była ona wolna od materiałów promujących przemoc czy też przedstawiających fałszywe informacje. Dowód całkiem – dodajmy – przekonujący.
W ciągu wspomnianych trzech miesięcy z YouTube’a zostało usuniętych ponad 7,8 miliona filmów i 1,6 miliona kanałów (z 50,2 milionami filmów), a także 224 miliony komentarzy.
Co warte podkreślenia, większość tych nieodpowiednich materiałów wyleciała z serwisu w sposób automatyczny, to znaczy, że naruszenia zostały wykryte przez algorytmy. Ręcznie administracja wycofała „jedynie” 1,5 miliona filmów i milion komentarzy.
Licząc od najczęstszego, powody usuwania filmów to: spam, nagość, bezpieczeństwo dzieci, liczne naruszenia, podszywanie się, propagowanie przemocy oraz nękanie.
Należy również zwrócić uwagę na to, że większość z tych automatycznie usuniętych filmów znikła z platformy zanim ktoś w ogóle zdążył je zobaczyć – dotyczy to aż 74,5 proc. przypadków. Wyraźnie więc widać, że (nieustannie poprawiane) algorytmy działają tak, jak powinny.
Jest to niezwykle ważne w przypadku serwisu o tak dużym zasięgu jak YouTube. Oczywiście naturalną rzeczą jest, że zdarzają i będą zdarzać się przypadki, że pewne filmy jednak pozostaną niezauważone przez algorytmy czy zespół moderacyjny. Dlatego warto flagować takie materiały, gdy się na nie natknie. Przypominamy też o bezpiecznej dla najmłodszych aplikacji YouTube Kids, od niedawna dostępnej w polskiej wersji.
Źródło: Google, ghacks, Engadget. Ilustracja: ElisaRiva/Pixabay (CC0)
Komentarze
8