Naukowcy z instytutu MIT pochwalili się wynikami eksperymentu Norman, w ramach którego „karmili” sztuczną inteligencję wyłącznie treściami dotyczącymi śmierci. Jaki jest tego cel?
To, czym „karmi się” sztuczną inteligencję, ma olbrzymie znaczenie – przekonują naukowcy z MIT. Na dowód prezentują Normana, bota, który w pełni zasługuje na to, by określić go „psychopatycznym”.
Miłośnikom kina grozy nie trzeba specjalnie przybliżać postaci Normana Batesa. To właśnie do tej postaci nawiązuje nazwa sztucznej inteligencji stworzonej w ramach projektu MIT. Autorzy nazywają ją „pierwszą na świecie psychopatyczną SI” i mają ku temu powody, bo w teście Rorschacha widziała między innymi „człowieka zastrzelonego przez krzyczącą żonę” i „człowieka wciągniętego przez maszynę do ciasta”.
Skąd Norman wziął takie interpretacje? Odpowiedź brzmi: z Reddita, a konkretnie z subreddita r/watchpeopledie, gdzie dokumentowane są prawdziwe przypadki zgonów. Jako że został „nakarmiony” tylko takimi treściami, na każdym przedstawianym mu obrazku widział śmierć – w takiej lub innej formie. Nie miał prawa widzieć nic innego, bo niczego innego nie znał.
Nierozsądni, głupi, stwarzający zagrożenie… – różnych określeń można by użyć do opisania autorów tego eksperymentu, ale w rzeczywistości nie zasłużyli oni na żadne z nich. Cel jest bowiem słuszny, a efekt ma być pozytywny.
Chodzi mianowicie o to, by jak najwyraźniej zilustrować, jak ważne jest odpowiednie dobranie materiałów, którymi „karmiona” jest sztuczna inteligencja – tylko ich rzetelny zbiór da gwarancję prawidłowo rozumującego i interpretującego świat dookoła oprogramowania.
Norman pokazuje, że do tematu rozwoju sztucznej inteligencji należy podejść w odpowiedni sposób. (I nawet jeśli projekt „Norman” to częściowo tylko żart, to z gatunku tych, które rzeczywiście mają sens).
Źródło: Digital Trends. Ilustracje: MIT
Komentarze
1