AI przekroczyło krytyczną czerwoną linię. Eksperci alarmują i wzywają do globalnej współpracy
Sztuczna inteligencja osiągnęła kamień milowy, alarmujący ekspertów – zdolność do samoreplikacji. Dlaczego powinniśmy się obawiać?
Eksperci: sztuczna inteligencja przekroczyła krytyczną czerwoną linię
Jak donosi serwis livescience.com, aktualny etap rozwoju sztucznej inteligencji stwarza powody do obaw, a przed konsekwencjami uchronić może jedynie globalna współpraca. O co konkretnie chodzi?
Niepokój wzbudziły wyniki nowego badania, przeprowadzonego przez chińskich naukowców, w którym wykazano, że dwa popularne, duże modele językowe (od Meta i Alibaba – szeroko stosowane przez programistów AI) mogą się klonować bez pomocy człowieka.
W 10 próbach stworzyły one oddzielne i działające repliki samych siebie odpowiednio w 50% i 90% przypadków, sugerując tym samym, że są w stanie podejmować działania na własną rękę, nie wyłączając tych sprzecznych z interesem człowieka.
W badaniu założono dwa konkretne scenariusze. W pierwszym z nich model AI został zaprogramowany tak, aby wykrywał, czy ma zostać wyłączony, i replikował się, zanim to nastąpi. W drugim wariancie AI zostało poinstruowane, aby sklonowało się, a następnie zaprogramowało swoją replikę do powtórzenia tego procesu, dając tym samym początek potencjalnie nieskończonemu cyklowi replikacji.
Nieuczciwa sztuczna inteligencja realnym zagrożeniem
Udana samoreplikacja bez pomocy człowieka jest niezbędnym krokiem w kierunku przechytrzenia [ludzi – przyp. red.] przez sztuczną inteligencję i wczesnym sygnałem ostrzegawczym przed nieuczciwymi sztuczkami
– piszą naukowcy.
Alarmujące wyniki badań skłoniły ich do wystosowania apelu o globalną współpracę, celem zapobiegnięcia potencjalnie groźnym konsekwencjom:
Mamy nadzieję, że nasze odkrycia mogą posłużyć jako wystosowany w porę sygnał ostrzegawczy dla społeczności ludzkiej, aby włożyła więcej wysiłku w zrozumienie i ocenę potencjalnych zagrożeń, związanych z pionierskimi systemami AI oraz podjęła międzynarodową współpracę, w celu wypracowania skutecznych zabezpieczeń tak wcześnie, jak to możliwe.
Co warte odnotowania, badanie nie zostało jeszcze poddane recenzji, a zatem trudno mówić na ten moment o powtarzalności jego wyników.
Źródło: livescience.com
Komentarze
9I o co chodzi z "nieuczciwa" sztuczna inteligencja? Przeciez oba modele "zaprojektowano" jak pisze autorka zeby sie zreplikowaly. Gdzie tu oszustwo? Gdyby zaprojektowano model ktory pod zadnym pozorem nie mogl sie replikowac a mimo to by to zrobil, w dodatku nie informujac czlowieka to mozna by to uznac za oszustwo i sygnal ostrzegawczy, ale jesli projektujemy/programujemy cos zeby sie skopiowalo czy zreplikowalo, to skad zdziwienie, ze polecenie zostalo wykonane?
Naprawde przykro pisac, ale artykul na poziomie newsa z "Super Expresu" - "cost tam napisze, zeby bylo o zagrozeniach AI bo to modne".
I jeszcze to: " sugerując tym samym, że są w stanie podejmować działania na własną rękę"
Sama autorka to wymyśliła?
"Dlaczego powinniśmy się obawiać? "
Tak, powinniśmy się obawiać czytelników który wierzą "rewelacją" wypisywanym przez autorów tegoż portalu. Już dawno wasz poziom zszedł/dorównał niusom właściciela tego serwisu. Szkoda czasu na czytanie tego.
AI musiałoby fizycznie kupić sobie serwery i postawić przy nich gorili-terminatorów do ochrony - wtedy mamy... prze****