A miało być tak pięknie. Facebook przyczynił się do polaryzacji społecznej w Polsce
A Mark Zuckerberg najwyraźniej nie chce tego zmieniać. Jaka przyszłość czeka Facebooka?
Internauci od dawna narzekają, że Facebook nie działa na korzyść użytkowników. Gromadzenie ogromnej ilości danych, a także zmiany wyglądu zazwyczaj spotykają się z negatywnym przyjęciem. O tym, co wyświetla się w kanale wiadomości na głównej stronie decyduje algorytm, a ten częściej wybiera treści budujące gniew i pomaga tworzyć podziały w społeczeństwie.
Facebook dzieli ludzi
The Wall Street Journal dotarł do wewnętrznych notatek pracowników Facebooka, które opisują problemy związane z wprowadzeniem zmian algorytmu. Zaczęło się od e-maila wysłanego przez dyrektora naczelnego BuzzFeed (jeden z najpopularniejszych portali w Internecie) do Marka Zuckerberga w 2018 roku, na temat niekorzystnych zmian algorytmu kanału wiadomości (News Feed). Skarżył się, że doprowadziły do nierównomiernego wyświetlania treści stworzonych przez wydawców. Te najbardziej kontrowersyjne stały się wirusowe, jednak pozostałe miały problem z przebiciem się.
Szef Facebooka poinformował, że zmiany miały na celu wzmocnienie więzi między użytkownikami oraz poprawę ich samopoczucia. Mieli być bardziej aktywni i częściej rozmawiać z rodziną i przyjaciółmi, a mniej czasu spędzać na biernym konsumowaniu treści, co według badań jest szkodliwe dla zdrowia psychicznego. Czas spędzany na Facebooku miał stać się bardziej wartościowy dla wszystkich. Niestety, zmiany przyniosły efekt odwrotny od zamierzonego, o czym zresztą ostrzegali pracownicy firmy. Facebook stał się platformą przepełnioną gniewem i podziałami.
Według treści notatek, pracownicy firmy zauważyli, że wydawcy (zwłaszcza partie polityczne) zaczęli tworzyć swoje treści w taki sposób, aby wywołać silne emocje, takie jak oburzenie i gniew. Stworzona sensacja była gwarancją ogromnej ilości komentarzy oraz reakcji, co zwiększało szanse na wybicie się na Facebooku. Takie podejście wywołało niezdrowe skutki uboczne w istotnych przekazach publicznych, a gniew i podziały społeczne stały się widoczniejsze. Badacze zgodzili się, że nowy algorytm miał w tym spory udział.
„Dezinformacja, toksyczność i treści związane z przemocą są niezwykle rozpowszechnione wśród udostępnień” – zaobserwowali badacze.
Wewnętrzny raport z kwietnia 2019 roku ujawnił, że zmiany spowodowały pogorszenie dyskusji politycznych na platformie oraz zwiększenie polaryzacji społecznej w Polsce.
„Zespół zarządzający mediami społecznościowymi jednej ze stron szacuje, że zmienili proporcje swoich postów z 50/50 pozytywnych/negatywnych na 80% negatywnych, wyraźnie jako efekt funkcji algorytmu” – napisali dwaj badacze Facebooka.
Wiele partii politycznych skarżyło się, że komunikacja z ich zwolennikami za pośrednictwem stron na Facebooku stała się trudniejsza. Zaczęto też tworzyć wpisy gromadzące jak największe ilości komentarzy i udostępnień, dzięki czemu wyświetlały się u większej liczby użytkowników. Treści często sporządzano tak, aby wywołać gniew u odbiorcy. Szybko odkryto, że ostre ataki na przeciwników są najskuteczniejsze. Podobne skargi słyszano od partii politycznych z Hiszpanii, Tajwanu czy Indii.
Mark Zuckerberg nie chce zmian
Analitycy opracowali propozycje rozwiązań, które mogłyby ograniczyć promowanie toksycznych treści przez nowy algorytm. Jednak z dokumentów wynika, że Mark Zuckerberg sprzeciwił się wprowadzeniu niektórych z nich, z obawy przed spadkiem aktywności użytkowników.
Zapiski w notatkach ujawniły, że powodem zmian algorytmu było rosnące zaniepokojenie firmy spadkiem zaangażowania użytkowników w 2017 roku, którego nie potrafili zatrzymać. Obawiano się, że niebawem internauci ostatecznie porzucą Facebooka i przeniosą się na inne platformy.
Ostatecznie algorytm nagradzał również treści wprowadzające w błąd, wulgarne i budzące niesmak, a twórcy poczuli presję udostępniania gorszych treści. Nic więc dziwnego, że mimo kolejnych modyfikacji algorytmu wielu dyrektorów wydawniczych przestało polegać na Facebooku.
„Kiedy platforma FB oferuje ludziom możliwość łączenia się, dzielenia się i angażowania, niefortunnym skutkiem ubocznym jest to, że szkodliwe i wprowadzające w błąd treści mogą stać się wirusowe, często zanim zdołamy je wyłapać i załagodzić skutki” – napisał jeden z naukowców zajmujących się danymi Facebooka.
Korzystasz jeszcze z Facebooka?
Portale społecznościowe zarabiają na zaangażowaniu użytkowników. Dążąc do zwiększenia aktywności, podpowiadają co może ich zainteresować. Algorytm ściśle kontroluje co ma pojawiać się w u każdej osoby, bazując na tym w co klika, jakie strony obserwuje, do których grup należy czy kogo ma w znajomych.
Czy da się utrzymać zaangażowanie milionów użytkowników treściami dobrej jakości i merytorycznymi dyskusjami? Algorytm wybiera materiały, na które ludzie najchętniej reagują, a przodują te wzbudzające silne emocje. Czy można zatem winić Facebooka za tak stworzony system, czy odpowiedzialność za jakość treści powinna spaść na samych użytkowników i ich preferencje? Niektórzy mają już zwyczajnie dość Facebooka i po prostu usuwają z niego swoje konta.
A Wy co o tym wszystkim sądzicie? Dajcie znać w komentarzach.
Źródło: The Wall Street Journal
Komentarze
8Ostatnio próbowałem sobie konto założyć co by przez kilka dni sprawdzić co w interfejsie graficznym i obsłudze tego portalu zmieniło się przez te lata.
Wielkie zdziwienie mnie dopadło jak na drugi dzień nie mogłem się zalogować bo pejsbook chciał odemnie skanu dowodu.
Stwierdziłem od razu takiego ch$ja jak słonia nos.
Zamknąłem stronę i już nigdy tam nie wrócę...
Ostatnio próbowałem sobie konto założyć co by przez kilka dni sprawdzić co w interfejsie graficznym i obsłudze tego portalu zmieniło się przez te lata.
Wielkie zdziwienie mnie dopadło jak na drugi dzień nie mogłem się zalogować bo pejsbook chciał odemnie skanu dowodu.
Stwierdziłem od razu takiego ch$ja jak słonia nos.
Zamknąłem stronę i już nigdy tam nie wrócę...