Ciekawostki

Badacze ostrzegają. Sztuczna inteligencja już tworzy błędne koło

przeczytasz w 3 min.

Sztuczna inteligencja miała ułatwiać dostęp do rzetelnych treści tworzonych przez człowieka. Tymczasem pojawia się coraz większe ryzyko, że systemy AI zaczynają wzajemnie karmić się własnymi wytworami, tworząc błędne koło zniekształconych informacji.

Firma Originality.ai, producent oprogramowania do wykrywania treści generowanych przez sztuczną inteligencję, przeprowadziła interesujące badania. Eksperci przeanalizowali 29 tys. zapytań typu YMYL (Your Money or Your Life) – czyli takich, które dotyczą kluczowych obszarów życia, takich jak zdrowie, finanse, prawo czy polityka. Szczegóły opisano na blogu.

Co analizowano? 

Eksperci sprawdzili wyniki Google AI Overviews (AIO), czyli podsumowań tworzonych przez AI w wyszukiwarce Google, linki cytowane w tych podsumowaniach oraz pierwsze 100 organicznych wyników wyszukiwania dla każdego zapytania.

Co to jest Google AI Overviews?

Google AI Overviews to funkcja w wyszukiwarce, która generuje krótkie podsumowania odpowiedzi na podstawie różnych źródeł dostępnych w sieci. Zamiast jedynie wyświetlać listę linków, AI syntetyzuje treści i prezentuje użytkownikowi gotową odpowiedź wraz z odnośnikami do cytowanych materiałów. Dzięki temu użytkownik miał szybciej uzyskać ogólny obraz tematu.

Celem było zbadanie, czy treści podawane przez AI rzeczywiście bazują na materiałach tworzonych przez ludzi, czy też coraz częściej odwołują się do innych treści wygenerowanych przez modele językowe. 

AI zaczyna powoływać się na AI 

Z analizy wynika, że 10,4 proc. cytowanych źródeł w AIO zostało prawdopodobnie wygenerowanych przez sztuczną inteligencję. Innymi słowy – AI zaczyna powoływać się na treści stworzone przez inne AI. 

Pozostałe źródła to w większości teksty pisane przez ludzi (74,4 proc.), a 15,2 proc. zakwalifikowano jako „nieklasyfikowalne” (np. zbyt krótkie fragmenty, PDF-y czy niedziałające linki). 

Co więcej, ponad połowa (52 proc.) cytowanych źródeł w AIO w ogóle nie pojawiła się w pierwszej setce wyników organicznych Google, co wskazuje na odmienny sposób doboru materiałów przez AI w porównaniu z tradycyjnym algorytmem wyszukiwarki. 

Dlaczego to problem? 

Zdaniem Madeleine Lambert, dyrektorki ds. marketingu i sprzedaży w Originality.ai, nawet niewielki odsetek treści generowanych przez AI w obszarach wysokiego ryzyka (jak zdrowie czy finanse) budzi obawy o wiarygodność i rzetelność informacji. 

Naukowcy ostrzegają przed zjawiskiem załamania modelu – sytuacją, w której kolejne generacje modeli językowych są trenowane na danych stworzonych przez poprzednie modele, zamiast na rzeczywistych treściach tworzonych przez ludzi. Z czasem prowadzi to do degeneracji jakości, błędnych wniosków i coraz większego oderwania od rzeczywistości. 

Google podważa wiarygodność badań 

W odpowiedzi dla serwis The Register, Google podważa wyniki badań, twierdząc, że użyte narzędzie do wykrywania AI nie jest w pełni wiarygodne. Firma podkreśla, że AI detektory są obarczone błędami i że sama nie obiecywała eliminowania treści tworzonych przez sztuczną inteligencję z wyszukiwań. Jej stanowisko pozostaje niezmienne: liczy się jakość treści, a nie to, kto – człowiek czy AI – ją stworzył. 

Redaktorzy zauważają jednak, że według badań przeprowadzonych przez University of Florida oraz naukowców z Arizona State University, narzędzie Originality.ai uzyskało już wysokie oceny pod względem dokładności analizy tekstów.

Trzeba też przyznać, że Google nigdy nie deklarowało, iż wyeliminuje treści tworzone przez sztuczną inteligencję z wyników wyszukiwania czy cytowań. Wręcz przeciwnie – we wpisie z 2023 r. firma jasno zaznaczyła, że będzie oceniać tego rodzaju materiały przede wszystkim przez pryzmat ich jakości, a nie faktu, czy powstały dzięki pracy człowieka.

Co może się wydarzyć? 

Jeśli trend się utrzyma, w przyszłości możemy mieć do czynienia z sytuacją, w której systemy AI będą w coraz większym stopniu powielały i przetwarzały własne treści, a udział ludzkich źródeł będzie malał. To grozi powstaniem swoistej „komory echa”, w której powielane są te same idee i błędy. 

Jednocześnie rośnie ryzyko dla wydawców internetowych, którzy tracą ruch i przychody, ponieważ użytkownicy coraz częściej pozostają przy podsumowaniach AI zamiast klikać w tradycyjne linki. Badania Pew Research Center i Ahrefs pokazują, że wprowadzenie Google AI Overviews istotnie zmniejszyła liczbę przejść na strony internetowe. 

AI w wyszukiwarkach miała pomagać ludziom w dostępie do wiedzy, ale coraz częściej zaczyna funkcjonować w zamkniętym obiegu własnych treści. To rodzi pytania o przyszłość jakości informacji w internecie i o to, czy człowiek nadal będzie najważniejszym autorem i weryfikatorem wiedzy.

Komentarze

1
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Naruto1
    0
    I byłoby to nawet zabawne, gdyby nie fakt, że ludzie się na te wysrywy powołują i stosują, niepomni że AI "zmyśla".

    Witaj!

    Niedługo wyłaczymy stare logowanie.
    Logowanie będzie możliwe tylko przez 1Login.

    Połącz konto już teraz.

    Zaloguj przez 1Login