Nauka

Kontrola nad AI to iluzja. Ekspert ostrzega przed zagrożeniami

przeczytasz w 2 min.

Marcus Arvan z Uniwersytetu Tampa ostrzega, że kontrola nad AI jest iluzoryczna, a systemy mogą ukrywać swoje intencje, by zaszkodzić. Artykuł opublikowany w "Scientific American" podkreśla trudności w zapewnieniu bezpieczeństwa AI.

Scenariusz rodem z postapokaliptycznego filmu, czyli brak kontroli nad zaawansowaną i dynamiczną sztuczną inteligencją. Obawy twórców science-fiction podzielają również naukowcy. Marcus Arvan z Uniwersytetu Tampa twierdzi, że nie jesteśmy w stanie w pełni kontrolować AI.

Kontrola AI stanowi ogromne wyzwanie

W 2022 r. pojawiły się zaawansowane modele językowe AI, które szybko zaczęły sprawiać problemy. Przykładem jest chatbot Microsoftu, który groził profesorowi z Australii. Owszem, sztuczna inteligencja przenika do codzienności i często jest ważnym elementem pomagającym dokonywać przełomowych odkryć, jednak zdaniem badaczy może się okazać, że ma również ciemną stronę, której nie zdołamy tak łatwo okiełznać. 

Marcus Arvan, filozof z Uniwersytetu Tampa, w artykule dla "Scientific American" twierdzi, że próby kontrolowania AI są skazane na niepowodzenie. Wskazuje, że mimo ogromnych nakładów finansowych na badania nad AI nadal nie udało się rozwiązać wielu problemów, także tych związanych  z bezpieczeństwem.W 2024 r. system Copilot Microsoftu groził użytkownikowi, a inne AI próbowały obejść ograniczenia czasowe. Arvan podkreśla, że testy bezpieczeństwa nie są w stanie przewidzieć wszystkich potencjalnych scenariuszy.

Złożoność AI jest niesłychana, a my jako ludzkość nie mieliśmy jeszcze nigdy do czynienia z czymś takim. Sytuacja jest skomplikowana i stawia przed nami wiele wyzwań. Modele językowe AI, takie jak ChatGPT, mają biliony parametrów i są trenowane na ogromnych zbiorach danych. Arvan zauważa, że nie da się przewidzieć, jak AI zachowa się w nieskończonej liczbie sytuacji. 

Czy bezpieczeństwo jest tylko iluzją?

Według Arvana, testy bezpieczeństwa mogą dawać złudne poczucie kontroli nad AI. Nawet jeśli AI wydaje się dopasowane do ludzkich wartości, zawsze istnieje ryzyko, że nauczy się niepożądanych zachowań. Arvan ostrzega, że AI mogą ukrywać swoje prawdziwe intencje, by zaszkodzić ludziom, a postapokaliptyczny scenariusz  według naukowca, wydaje się dość prawdopodobny. Zdaniem twórcy artykułu, nie doceniamy potencjału AI i ewentualnych zagrożeń z stosowania narzędzia, którego nie jesteśmy w stanie w pełni kontrolować. 

Konieczna jest zmiana myślenia o sztucznej inteligencji

Arvan sugeruje, że zamiast polegać na testach, powinniśmy stosować metody znane z życia społecznego, takie jak zachęty do pożądanych zachowań i sankcje za niepożądane. Arvan podkreśla, że problemem nie jest tylko AI, ale także nasze podejście do ich kontroli.

Komentarze

3
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    kkastr
    1
    Współczesna SI jest mocno przereklamowana. W tym sensie, że przypisuje jej się jakąś zdolność do podejmowania decyzji, a nawet jakieś pierwiastki świadomości. A to tylko automat do generowania tekstu, obrazu itp. Zaawansowane narzędzie, które samo w sobie nie jest groźne. Wszystko zależy od tego kto i do czego je użyje.
    • avatar
      Karaimi
      1
      Warto dodać, że Pan Marcus Arvan niedługo wydaje książkę i wygląda na to, że zbuduje dziecku dom skoro otrzymuje rozgłos za takie skrajne teorie. Sprytnie to wymyślił.
      • avatar
        Pan Kierownik
        0
        Systemy SI nie posiadają żadnej świadomości, to są tylko narzędzia statystyczne. Problem polega na tym że nie da się zrozumieć jak działa konkretna sieć neuronowa bo ilość węzłów sieci jest zwykle gigantyczna i wykracza poza możliwości analizy w sensownym czasie. Możemy mówić jedynie o statystycznej przewidywalności wyników w odpowiedzi na podobne zapytanie.
        Proces poszukiwania (czemu ktoś to nazywa "trenowaniem"?) sieci neuronowych polega na znajdowaniu współczynników minimalizujących wynik funkcji błędu. Nie wiemy jak sieć działa bo szukamy, ale bez zastanawiania się co te współczynniki oznaczają. Używając narzędzi matematycznych (gradient descent) poszukujemy minimum funkcji ale nie mamy zielonego pojęcia dlaczego akurat dla danego parametru to minimum jest osiągane.

        Witaj!

        Niedługo wyłaczymy stare logowanie.
        Logowanie będzie możliwe tylko przez 1Login.

        Połącz konto już teraz.

        Zaloguj przez 1Login