
Czy chat GPT myśli jak człowiek? Media obiegła informacja, że sztuczna inteligencja przeszła test Turinga, a to oznacza, że AI może stać nie do odróżnienia od człowieka.
Jak podaje portal Science Alert, doniesienia medialne bazują na niedawnym badaniu przeprowadzonym przez naukowców z Uniwersytetu Kalifornijskiego w San Diego. Badacze analizowali odpowiedzi czterech modeli językowych. Podczas testu Turinga jeden z modeli językowych- GPT-4.5 OpenAI był w niemal 70 proc. nieodróżnialny od człowieka.
Badanie przeprowadzono na czterech modelach językowych
Badanie przeprowadzone przez kognitywistów Camerona Jonesa i Benjamina Bergena nie zostało jeszcze zrecenzowane, choć opublikowano je w marcu. Przetestowano w nim 4 modele LLM: ELIZA, GPT-4o, LLaMa-3.1-405B i GPT-4.5.
Test polegał na tym, że uczestnik, wcielający się w rolę osoby, która przesłuchuje drugą stronę, prowadził jednocześnie rozmowę tekstową z dwiema osobami. Jedna z nich była prawdziwym człowiekiem, a druga była chatbotem opartym na sztucznej inteligencji. Przez pięć minut uczestnik pisał wiadomości do obu rozmówców, próbując na podstawie ich odpowiedzi zorientować się, kto jest kim.
Cały interfejs wyglądał jak zwykły komunikator, a rozmowy toczyły się równolegle, na podzielonym ekranie. Po zakończeniu rozmowy uczestnik musiał zdecydować, który z rozmówców był człowiekiem, a który maszyną. Celem było sprawdzenie, czy sztuczna inteligencja potrafi przekonać człowieka, że również jest człowiekiem.
Ponad 70 proc. uczestników testu pomyliło AI z człowiekiem
Uczestnicy testu najczęściej mylili GPT-4.5 z człowiekiem – aż w 73% przypadków uznali ten model za osobę. Model LLaMa-3.1-405B zdołał wprowadzić w błąd 56% uczestników. Dwa pozostałe systemy, czyli ELIZA oraz GPT-4o, były znacznie mniej przekonujące – zostały uznane za ludzi odpowiednio w 23% i 21% przypadków.
Czym jest test Turinga?
Test Turinga wywołał wiele debat na temat świadomości, myślenia i granic sztucznej inteligencji. Do dziś pozostaje jednym z najbardziej znanych i kontrowersyjnych symboli rozważań nad relacją między człowiekiem a maszyną. Został spopularyzowany jako ostateczny wskaźnik inteligencji maszyn, jednak spór dotyczy tego co tak naprawdę jest mierzone i czy faktycznie pozwala ocenić inteligencję maszyn.
Test Turinga został przedstawiony w 1948 roku przez informatyka Alana Turinga. Pierwotnie test obejmował trzy osoby (dwóch graczy i jednego operatora) grające w szachy z teoretyczną maszyną. Eksperyment miał być grą imitacyjną, a jej twórca twierdził, że jest to wiarygodny sposób na określenie inteligentnego zachowania maszyny.
Eksperyment opiera się na zdolności imitowania ludzkiej rozmowy. Tutaj nasuwa się pytanie: czy udawanie rozumienia to naprawdę rozumienie? Zakładamy także, że język i forma komunikacji to wystarczające kryteria komunikacji. Tymczasem myślenie wiąże się także z emocjami, świadomością, intencjami czy doświadczeniem cielesnym.Kolejna kontrowersja dotyczy manipulacji. Niektóre systemy mogą przejść test Turinga, stosując taktyki unikania odpowiedzi, żarty, pytania zwrotne czy granie na emocjach rozmówcy, nie mając przy tym żadnego zrozumienia rozmowy.
Czy AI jest równie inteligentne jak człowiek? Twórcy artykułu przedstawiają badanie w którym chat GPT przeszedł test Turinga, który jest teoretycznym wskaźnikiem tego czy algorytm może zastąpić prawdziwego człowieka bez zauważalnej różnicy w sposobie komunikacji. Oznacza to, że badacze nie przychylają się do tego, aby test był miarodajnym wskaźnikiem ludzkiej inteligencji. Kontrowersyjny wydają się warunk przeprowadzanego eksperymentu: wyjątkowo krótkie, bo pięciominutowe, okno testowe oraz to, że LLM zostały poproszone o przyjęcie konkretnej osobowości.
Komentarze
10Tak jakby to nie dotyczyło też ludzi.
Tekst: "GPT-4.5 OpenAI był w niemal 70 proc. nieodróżnialny od człowieka"
Aha. Znaczy nie przeszła. Klikbajt.