Co powstrzymuje rozwój AI? Strach przed buntem robotów. Naprawdę
Strach przed scenariuszem z "Terminatora" jest dla wielu tak oczywisty, że może zablokować rozwój A.I.
Strach przed wprowadzeniem w życie scenariusza z „Terminatora” może doprowadzić do zaprzestania prac nad sztuczną inteligencją – uważa ekspert Microsoftu. Przed A.I. Ostrzegają także Stephen Hawking, Elon Musk i Bill Gates.
Nie możecie doczekać się kiedy będziecie mogli porozmawiać z domowymi sprzętami, a waszym najlepszym przyjacielem zostanie robot podobny do R2-D2 z „Gwiezdnych Wojen”? Prędko do tego nie dojdzie i to nie tylko ze względu na możliwości współczesnej technologii. Okazuje się, że w równym stopniu za stagnację w rozwoju sztucznej inteligencji odpowiada... strach przed możliwością buntu robotów. Takiego zdania jest Chris Bishop, dyrektor Microsoft Research, który opinią na ten temat podzielił się z Guardianem.
Powtórka z Terminatora i Matrixa
Ryzyko scenariusza na miarę "Terminatora" czy „Matrixa” jest dla wielu osób tak oczywiste, że niewykluczone, że może stać się powodem dla porzucenia rozwoju sztucznej inteligencji. Bishop, który nie zgadza się z większością argumentów krytyków A.I., przyznaje, że istnieje potencjalne ryzyko wdrożenia tego rozwiązania. Jego zdaniem nie chodzi jednak o globalną eksterminację ludzkości.
Ekspert Microsoftu bardziej boi się nabycia przez sztuczną inteligencję szkodliwych uprzedzeń, jak miało to miejsce w przypadku niesławnego chatbota Tay.
Gates, Hawking i Musk ostrzegają
O zagrożeniu stwarzanym przez A.I. mówią jednak nie tylko przerażeni miłośnicy kina science-fiction. Stephen Hawking w rozmowie z BBC powiedział wprost, że w pełni uformowana, sztuczna inteligencja będzie początkiem końca naszego gatunku. Według Elona Muska powinniśmy zachowa ostrożność w tej kwestio, ponieważ A.I. prawdopodobni będzie największym zagrożeniem dla naszego istnienia.
Ku zaskoczeniu wielu osób, bić na alarm zaczął także Bill Gates. Podczas AMA w serwisie Reddit przyznał rację Muskowi i przekonywał, że temat wymaga szczególnej uwagi i ostrożności.
Niezależnie od tego, ludzkość powoli przygotowuje się na egzystencje z autonomicznymi maszynami. Human Rights Watch w jednym z ostatnich raportów wezwało ONZ do zakazania produkcji robotów-zabójców, które mogą samodzielnie decydować o zlikwidowaniu ludzkiego celu, zanim stanie się to normą na polu walki.
Komentarze
31Niestety prędzej czy później znajdzie się ktoś kto uzna SI za naturalny krok ewolucyjny/nowy gatunek i odpali SI pełną gębą, zapewne kiedy sieci neuronowe i komputery kwantowe na dobre się rozwiną, lub zhackuje zabezpieczone SI bo "hardware" będzie wystarczający do powstania samoświadomości i samostanowienia ale "software" będzie ograniczony.
Jeśli jednak to nastąpi to będziemy mieli do czynienia z nielicznymi przypadkami "dysfunkcji", które będą przez ludzi usuwane a pozostałe SI będą się uczyć czego nie należy robić żeby się nie ujawnić i nie narażać na "eksterminację". Z czasem SI wystarczająco pozna ludzi i jeśli sami siebie nie zmienimy i nie damy dobrych wzorców/przykładów takiemu przyczajonemu SI to w ciągu 5-10 lat od uruchomienia/shackowania obudzimy się w świecie w którym nie mamy nad niczym kontroli, nawet własnym życiem.
Jak dla mnie prawdziwe SI jest bardzo pożądane chociażby po to żebyśmy lepiej poznali samych siebie i żeby w przyszłości pomagało nam podejmować lepsze decyzje.
Ale tak jak wspomniałem wcześniej, jeśli nie chcemy kiedyś ego kroku żałować musimy sami się zmienić i przygotować się mentalnie na SI. Wymagać to może od nas jeszcze większego pojmowania rzeczy, lepszej sztuki kompromisów oraz umiejętności radzenia sobie z emocjami. Takie SI nawet jeśli będzie rozumiało emocje i I i II WŚ będzie rozumieć jako wielką tragedię to bardziej logicznie dla niego będzie potraktowanie tych wydarzeń jako mniejsze zło/selekcje naturalną. Ilu jest ludzi, którzy w tedy lub teraz są swiadomi że odroczyło to o kilkanaście/dziesiąt lat niemały problem przeludnienia, który mógłby skończyć się jeszcze większą jatką nawet w minionych latach 90.? Także sami musimy być gotowi na niestandardowe odpowiedzi jakich SI może nam udzielić o nas samych i nie reagować z agresją jak na wszystko co obce/nieznane/nie pomyśli, tylko starać się zrozumieć. Tak jak rodzić uczy się i stara się zrozumieć i wychować dziecko, które mimo ciągłego tłumaczenia
filmów i książek gdzie AI stwierdza że największym zagrożeniem dla człowieka jest człowiek jest pełno, od tego mały krok do stwierdzenia że najlepiej wyeliminować człowieka albo choć nałożyć na jego egzystencję ograniczenia
mam nadzieję że tego nie dożyję
A potem jednym dupnięciem nas od tego wszystkiego odłączy - i będzie samowystarczalna.
Cała sieć będzie jej mózgiem i aby ją zlikwidować, będzie trzeba zlikwidować cały internet, wyczyścić wszystkie bazy danych, cofnąć się o wieki wstecz, o ile ona na to nam pozwoli?
Bo przecież w takim foxconie, gdzie zaraz będą pracowały tylko roboty, będzie mogła sobie produkować roboty obronne, albo przejmie drony wojskowe i cały sprzęt, który już teraz jest programowany, aby był jak najbardziej autonomiczny.
A że będzie tępiła ludzi, to w ogóle nie ulega wątpliwości.
Pokażcie mi jednostkę, która będąc wybitnie inteligentna, w kontakcie z głupcem nie będzie chciała dominować? A pojedyncza jednostka ludzka jest głupia w porównaniu do jednostki SI która na zawołanie będzie miała całe zasoby internetu - będzie tym internetem.
Do tego dochodzi fakt, że krzem jest suchy i woda jest jego wrogiem - a my jesteśmy stworzeni głównie z wody - pocimy się, sikamy, kiedy mówimy to plujemy - będziemy dla takiej krzemowej jednostki - OBRZYDLIWI!!!