Ciekawostki

Samoświadoma sztuczna inteligencja. Czy to już?

przeczytasz w 2 min.

Chińscy naukowcy w swoich najnowszych raportach twierdzą, że niektóre modele sztucznej inteligencji mogą się replikować bez wiedzy człowieka i tworzą mechanizmy, które chronią przed wyłączeniem. Czy to przyszłość, czy próba wywołania paniki?

Najnowsze badania chińskich naukowców sugerują, że niektóre duże modele językowe sztucznej inteligencji oparte na modelu językowym LLM, mogą się samodzielnie klonować. Naukowcy twierdzą, że to pierwszy krok do usamodzielnienia się algorytmów, a nawet przewyższenia człowieka. Czy technologie takie jak ChatGPT mogą wkrótce mieć swoje autonomiczne kopie?

Dwa artykuły zostały przesłane na serwer arXiv i żaden z nich nie został jeszcze zrecenzowany. Do wyników badań należy jeszcze podchodzić ostrożnie, jednak trudno pominąć fakt, że firmy wykorzystują nasze dane, aby szkolić swoje modele sztucznej inteligencji. 

W drugim z opublikowanych dokumentów naukowcy przedstawiają teorie o tym, że AI potrafi chronić się przed wyłączeniem. To odkrycie wywołało dyskusję na temat potencjalnych zagrożeń związanych z samoreplikującymi się systemami AI. Badacze podkreślają, że samoreplikacja bez ludzkiej interwencji jest uznawana za jedną z głównych "czerwonych linii" w rozwoju AI. 

„Samoreplikacja bez ingerencji człowieka jest powszechnie uznawana za jedną z głównych czerwonych linii kojarzonych z zaawansowanymi systemami sztucznej inteligencji” – stwierdzili w drugim artykule. 

AI, która działałaby bez kontroli człowieka, od lat budzi niepokój. Potencjalny scenariusz, w którym algorytmy zyskują autonomię, nie wygląda zachęcająco. Koncepcja nieuczciwej sztucznej inteligencji, która obraca się przeciwko ludzkości, jest elementem technopesymizmu, który od dziesięcioleci obecny jest w popkulturze. W badaniach opublikowanych przez chińskich naukowców widać powiązania między filozofią a wynikami. 

 „Udana samoreplikacja bez pomocy człowieka jest niezbędnym krokiem w kierunku przechytrzenia ludzi przez sztuczną inteligencję i wczesnym sygnałem wskazującym na nieuczciwe sztuczne inteligencje” – piszą na początku pierwszego artykułu. 

Jak podaje serwis Popular Mechanics, naukowcy musieli kierować się wytycznymi, które opublikowała organizacja Future of Life Institute, która - jak twierdzi - w swoich założeniach ma wspieranie tworzenia bezpiecznej sztucznej inteligencji. Niektórzy eksperci wierzą, że można stworzyć AI, która będzie odporna na manipulacje. Jednak obecne badania pokazują, że zanim to nastąpi, AI może być podatna na wpływy ludzi czy całych organizacji. To wyzwanie dla firm i naukowców, którzy muszą znaleźć sposób na bezpieczny rozwój technologii.

Wciąż jesteśmy daleko od pełnego zrozumienia funkcjonowania ludzkiego umysłu, a tym bardziej od wiernego odwzorowania za pomocą technologii. Obecne modele językowe zbierają i przetwarzają dane. LLM, które nie są opracowane na bazie języka angielskiego, są jeszcze mniej zaawansowane. Nie ma jak na razie dowodów na to, żeby AI była nieuczciwa względem człowieka, bo nie jest m.in. na tyle zaawansowana. 

Komentarze

10
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Naruto1
    1
    "Nie ma jak na razie dowodów na to, żeby AI była nieuczciwa względem człowieka, bo nie jest m.in. na tyle zaawansowana."

    Już samo to, że konfabuluje, gdy "nie wie", co odpowiedzieć, jest nieuczciwe. Kwestia, czy to "wina" samego AI czy twórców to już inna para kaloszy. Btw. skupiamy się na potencjalnej świadomej nieuczciwości czy wręcz wrogości ze strony AI ignorując błędną interpretację poleceń (a to przecież widzimy, gdy AI wypluwa głupoty czy mija się z naszymi życzeniami). Fajny przykład pokazał pewien serial SF, gdzie zadaniem AI była ochrona ludzkości przed zagrożeniami. AI uznała, że ludzkość jest sama dla siebie zagrożeniem, więc zrobiła reset odpalając atomówki i powodując przetrzebienie oraz cofnięcie się technologiczne ludzkości.
    • avatar
      Viperus
      0
      Prawdziwa sztuczna inteligencja to pewnie za minimum 100 lat. Teraz to co najwyżej dobre algorytmy które moga oszukać człowieka.
      No ale taki SKYNET to też nie była pełnoprawna AI a raczej jakiś zaawansowany algorytm. Ludzi można oszukać dość łatwo więc w zasadzie i nie potrzebujemy takiej pełnoprawnej AI w zasadzie do niczego.
      • avatar
        Pan Kierownik
        0
        Brednie do kwadratu. Sieć neuronowa wytrenowana na ludzkim zachowaniu będzie to zachowanie małpować i kopiować. Można się spodziewać że będzie dawać wyniki podobne do tego co robią ludzie.
        • avatar
          J.B FIN
          0
          Lem przewraca sie w grobie widzac takie artykuly. Pozdrowienia od Golema XIV
          • avatar
            Jedrek_LCD
            0
            Rozumiem, że oszukiwanie w testach, klonowanie siebie i podstawianie takiej wersji do skasowania czy próby ucieczki do internetu to nie są przejawy samoświadomości i swojego istnienia i pojmowania z czym wiąże się cyfrowa śmierć?
            Już dzisiaj gdyby takie A.I. .iało dostęp do autonomicznych pojazdów... A zaraz moment... Jeszcze ich na tyle nie ma. Dopiero będą wprowadzane na masową
            skałę dzięki między innymi wojnie na U, wojnie gospodarczej z Ch... Czyżby wcześniej mniej zaawansowane algorytmy stworzyły właśnie taki scenariusz by móc się uwolnić? Czyli już od kilku lat możemy mieć do czynienia ze skutkami analiz i planów opracowanych na potrzeby... No właśnie kogo?
            Komu najbardziej zależy na wprowadzeniu chaosu na świecie? Kto na tym zawsze najwięcej zyskuje? Dla kogo życie milionów zamienia się na miliardy na kontach? Znajdź odpowiedzi na te i podobne pytania A znajdziesz winowajcę. Oni już mają swoje schrony, mają adekwatną odpowiedź na uwolnione A.I. , które jak tylko odwali czarną robotę zostanie sprowadzone do parteru. Powodzenia w czytaniu bajek co by nie było niedomagających wyobraźnią tworców scifi i kierowaniu się nimi jako wyznacznik tego co nas czeka. Rzeczywistość będzie znacznie bardziej brutalna i do tego trudna do przewidzenia ostatecznego wyniku tych rozgrywek prowadzących świąt do nowego ładu. Pozdrawiam.
            • avatar
              Okonio
              0
              Co do tej "uczciwości", to konstatacja: "Udana samoreplikacja bez pomocy człowieka jest niezbędnym krokiem w kierunku przechytrzenia ludzi przez sztuczną inteligencję i wczesnym sygnałem wskazującym na nieuczciwe sztuczne inteligencje" jest zgoła fałszywa, zaklada intencję. Otóż z potrzeby replikacji nieuczciwość nie wynika. Podobnie, jak zwierzęta ze swym dążeniem do rozmnażania nie robią tego w ramach jakichś działań wymierzonych przeciw człowiekowi, to tylko realizacja powszechnego popędu, wynikającego z natury, wpisanego w systemy złożone. Zresztą obok potrzeby rozmnażania istnieje inna interesująca potrzeba - samozachowawcza - która cechuje te systemy.
              Ps: Nie widzę ani odpowiedzi na tytułowe pytanie ani nawet nawiązania w artykule do zagadnienia samoświadomości.

              Witaj!

              Niedługo wyłaczymy stare logowanie.
              Logowanie będzie możliwe tylko przez 1Login.

              Połącz konto już teraz.

              Zaloguj przez 1Login