
Chińscy naukowcy w swoich najnowszych raportach twierdzą, że niektóre modele sztucznej inteligencji mogą się replikować bez wiedzy człowieka i tworzą mechanizmy, które chronią przed wyłączeniem. Czy to przyszłość, czy próba wywołania paniki?
Najnowsze badania chińskich naukowców sugerują, że niektóre duże modele językowe sztucznej inteligencji oparte na modelu językowym LLM, mogą się samodzielnie klonować. Naukowcy twierdzą, że to pierwszy krok do usamodzielnienia się algorytmów, a nawet przewyższenia człowieka. Czy technologie takie jak ChatGPT mogą wkrótce mieć swoje autonomiczne kopie?
Dwa artykuły zostały przesłane na serwer arXiv i żaden z nich nie został jeszcze zrecenzowany. Do wyników badań należy jeszcze podchodzić ostrożnie, jednak trudno pominąć fakt, że firmy wykorzystują nasze dane, aby szkolić swoje modele sztucznej inteligencji.
W drugim z opublikowanych dokumentów naukowcy przedstawiają teorie o tym, że AI potrafi chronić się przed wyłączeniem. To odkrycie wywołało dyskusję na temat potencjalnych zagrożeń związanych z samoreplikującymi się systemami AI. Badacze podkreślają, że samoreplikacja bez ludzkiej interwencji jest uznawana za jedną z głównych "czerwonych linii" w rozwoju AI.
„Samoreplikacja bez ingerencji człowieka jest powszechnie uznawana za jedną z głównych czerwonych linii kojarzonych z zaawansowanymi systemami sztucznej inteligencji” – stwierdzili w drugim artykule.
AI, która działałaby bez kontroli człowieka, od lat budzi niepokój. Potencjalny scenariusz, w którym algorytmy zyskują autonomię, nie wygląda zachęcająco. Koncepcja nieuczciwej sztucznej inteligencji, która obraca się przeciwko ludzkości, jest elementem technopesymizmu, który od dziesięcioleci obecny jest w popkulturze. W badaniach opublikowanych przez chińskich naukowców widać powiązania między filozofią a wynikami.
„Udana samoreplikacja bez pomocy człowieka jest niezbędnym krokiem w kierunku przechytrzenia ludzi przez sztuczną inteligencję i wczesnym sygnałem wskazującym na nieuczciwe sztuczne inteligencje” – piszą na początku pierwszego artykułu.
Jak podaje serwis Popular Mechanics, naukowcy musieli kierować się wytycznymi, które opublikowała organizacja Future of Life Institute, która - jak twierdzi - w swoich założeniach ma wspieranie tworzenia bezpiecznej sztucznej inteligencji. Niektórzy eksperci wierzą, że można stworzyć AI, która będzie odporna na manipulacje. Jednak obecne badania pokazują, że zanim to nastąpi, AI może być podatna na wpływy ludzi czy całych organizacji. To wyzwanie dla firm i naukowców, którzy muszą znaleźć sposób na bezpieczny rozwój technologii.
Wciąż jesteśmy daleko od pełnego zrozumienia funkcjonowania ludzkiego umysłu, a tym bardziej od wiernego odwzorowania za pomocą technologii. Obecne modele językowe zbierają i przetwarzają dane. LLM, które nie są opracowane na bazie języka angielskiego, są jeszcze mniej zaawansowane. Nie ma jak na razie dowodów na to, żeby AI była nieuczciwa względem człowieka, bo nie jest m.in. na tyle zaawansowana.
Komentarze
10Już samo to, że konfabuluje, gdy "nie wie", co odpowiedzieć, jest nieuczciwe. Kwestia, czy to "wina" samego AI czy twórców to już inna para kaloszy. Btw. skupiamy się na potencjalnej świadomej nieuczciwości czy wręcz wrogości ze strony AI ignorując błędną interpretację poleceń (a to przecież widzimy, gdy AI wypluwa głupoty czy mija się z naszymi życzeniami). Fajny przykład pokazał pewien serial SF, gdzie zadaniem AI była ochrona ludzkości przed zagrożeniami. AI uznała, że ludzkość jest sama dla siebie zagrożeniem, więc zrobiła reset odpalając atomówki i powodując przetrzebienie oraz cofnięcie się technologiczne ludzkości.
No ale taki SKYNET to też nie była pełnoprawna AI a raczej jakiś zaawansowany algorytm. Ludzi można oszukać dość łatwo więc w zasadzie i nie potrzebujemy takiej pełnoprawnej AI w zasadzie do niczego.
Już dzisiaj gdyby takie A.I. .iało dostęp do autonomicznych pojazdów... A zaraz moment... Jeszcze ich na tyle nie ma. Dopiero będą wprowadzane na masową
skałę dzięki między innymi wojnie na U, wojnie gospodarczej z Ch... Czyżby wcześniej mniej zaawansowane algorytmy stworzyły właśnie taki scenariusz by móc się uwolnić? Czyli już od kilku lat możemy mieć do czynienia ze skutkami analiz i planów opracowanych na potrzeby... No właśnie kogo?
Komu najbardziej zależy na wprowadzeniu chaosu na świecie? Kto na tym zawsze najwięcej zyskuje? Dla kogo życie milionów zamienia się na miliardy na kontach? Znajdź odpowiedzi na te i podobne pytania A znajdziesz winowajcę. Oni już mają swoje schrony, mają adekwatną odpowiedź na uwolnione A.I. , które jak tylko odwali czarną robotę zostanie sprowadzone do parteru. Powodzenia w czytaniu bajek co by nie było niedomagających wyobraźnią tworców scifi i kierowaniu się nimi jako wyznacznik tego co nas czeka. Rzeczywistość będzie znacznie bardziej brutalna i do tego trudna do przewidzenia ostatecznego wyniku tych rozgrywek prowadzących świąt do nowego ładu. Pozdrawiam.
Ps: Nie widzę ani odpowiedzi na tytułowe pytanie ani nawet nawiązania w artykule do zagadnienia samoświadomości.