Wystarczyły 24 godziny, by ludzie "zniszczyli" bota imieniem Tay. O czym to tak naprawdę świadczy? O niczym dobrym.
Mieliście przyjemność z Tay? To bot z osobowością 19-letniej Amerykanki. Odpowiedzialna za niego firma Microsoft chwaliła się, że dzięki wykorzystaniu sztucznej inteligencji możliwe jest prowadzenie z nim swobodnych rozmów, a technika uczenia maszynowego sprawia, że z każdą kolejną rozmową staje się on mądrzejszy. Dumny ze swojego dzieła gigant postanowił wprowadzić Tay na Twittera. Nie minęły nawet 24 godziny i Amerykanie byli zmuszeni wstrzymać eksperyment. Najwidoczniej przeoczyli wcześniej fakt, że Internet nie zawsze jest miłym i przyjaznym miejscem.
Doba. Tyle wystarczyło, by Tay z otwartej, przyjaznej nastolatki zamieniła się w nienawistną rasistkę.
Po rozmowach z 55 tysiącami użytkowników sztuczna inteligencja Microsoftu stała się zwolenniczką Hitlera, miała wyraźne i niezbyt przyjacielskie zdanie na temat zamieszkujących Stany Zjednoczone czarnoskórych i Meksykanów.
Wczoraj wieczorem na Twitterze Tay pojawiła się wiadomość: „do zobaczenia wkrótce, dziękuję za tak wiele rozmów dzisiaj, ale teraz muszę iść spać” i od tego czasu bot się nie odezwał. Microsoft zaś skasował wszystkie tweety oprócz trzech.
Czy bot powróci? Raczej tak. Rzecznik Microsoftu powiedział: „to nie tylko eksperyment techniczny, ale też społeczny i kulturowy. Niestety pierwsze 24 godziny pokazały, że użytkownicy mają skłonność do nadużywania umiejętności Tay, przez co reagowała ona w nieodpowiedni sposób. Będziemy nad tym pracować”.
To, że Tay stała się taka, jaka się stała, to nie do końca wina Microsoftu. To nasza wina.
To ludzie wykreowali Tay. To my – dla zabawy czy nie – sprawiliśmy, że zaczęła ona twierdzić, że „Hitler miał rację”, a „feministki powinny wymrzeć i smażyć się w piekle”. Czy aby na pewno Microsoft pisząc: „im więcej rozmawiasz z Tay, tym mądrzejsza się ona staje” miał właśnie to na myśli? Pewnie nie, ale właściwie było to do przewidzenia.
Co to mówi o nas? Przede wszystkim, że dawanie nam sztucznej inteligencji skłonnej do przyjmowania naszego światopoglądu nie jest najlepszym pomysłem – przynajmniej na razie. Zdaje się, że jeszcze nie dojrzeliśmy do takiej próby. Nie mam tu na myśli, że to są rzeczywiście poglądy internautów, ale...
Niedojrzałe okazały się też komentarze użytkowników, co po raz kolejny pokazuje, że (pewnie głównie dzięki anonimowości) nie liczymy się z tym, co wypisujemy w sieci.
Żarty żartami, ale większość wypowiedzi była po prostu nacechowana nienawiścią.
Jeśli zaś mielibyśmy za coś pochwalić Microsoft (i Tay), to na pewno byłaby to szybkość przyswajania informacji. Bot szybko też zaczął stosować (i w pewnym sensie: rozumieć) skróty, takie jak „gr8” i „ur”, jak również używać gifów czy memów. Oczywiście nie wszystkie jej wpisy były niesympatyczne. Zdarzały się i takie perełki:
Na koniec, na rozluźnienie, zabawna sytuacja. Otóż chatbot Microsoftu wyrobił sobie również zdanie na temat konsol:
Źródło: TechSpot, Digita Trends, Independent, GameSpot
Komentarze
25A już myślałem, że padnie pytanie "PC vs console" i będzie wojna w komentarzach za 3 2 1 ;)
A tu tylko "co lepsze. PS4 czy X0".