
Marcus Arvan z Uniwersytetu Tampa ostrzega, że kontrola nad AI jest iluzoryczna, a systemy mogą ukrywać swoje intencje, by zaszkodzić. Artykuł opublikowany w "Scientific American" podkreśla trudności w zapewnieniu bezpieczeństwa AI.
Scenariusz rodem z postapokaliptycznego filmu, czyli brak kontroli nad zaawansowaną i dynamiczną sztuczną inteligencją. Obawy twórców science-fiction podzielają również naukowcy. Marcus Arvan z Uniwersytetu Tampa twierdzi, że nie jesteśmy w stanie w pełni kontrolować AI.
Kontrola AI stanowi ogromne wyzwanie
W 2022 r. pojawiły się zaawansowane modele językowe AI, które szybko zaczęły sprawiać problemy. Przykładem jest chatbot Microsoftu, który groził profesorowi z Australii. Owszem, sztuczna inteligencja przenika do codzienności i często jest ważnym elementem pomagającym dokonywać przełomowych odkryć, jednak zdaniem badaczy może się okazać, że ma również ciemną stronę, której nie zdołamy tak łatwo okiełznać.
Marcus Arvan, filozof z Uniwersytetu Tampa, w artykule dla "Scientific American" twierdzi, że próby kontrolowania AI są skazane na niepowodzenie. Wskazuje, że mimo ogromnych nakładów finansowych na badania nad AI nadal nie udało się rozwiązać wielu problemów, także tych związanych z bezpieczeństwem.W 2024 r. system Copilot Microsoftu groził użytkownikowi, a inne AI próbowały obejść ograniczenia czasowe. Arvan podkreśla, że testy bezpieczeństwa nie są w stanie przewidzieć wszystkich potencjalnych scenariuszy.
Złożoność AI jest niesłychana, a my jako ludzkość nie mieliśmy jeszcze nigdy do czynienia z czymś takim. Sytuacja jest skomplikowana i stawia przed nami wiele wyzwań. Modele językowe AI, takie jak ChatGPT, mają biliony parametrów i są trenowane na ogromnych zbiorach danych. Arvan zauważa, że nie da się przewidzieć, jak AI zachowa się w nieskończonej liczbie sytuacji.
Czy bezpieczeństwo jest tylko iluzją?
Według Arvana, testy bezpieczeństwa mogą dawać złudne poczucie kontroli nad AI. Nawet jeśli AI wydaje się dopasowane do ludzkich wartości, zawsze istnieje ryzyko, że nauczy się niepożądanych zachowań. Arvan ostrzega, że AI mogą ukrywać swoje prawdziwe intencje, by zaszkodzić ludziom, a postapokaliptyczny scenariusz według naukowca, wydaje się dość prawdopodobny. Zdaniem twórcy artykułu, nie doceniamy potencjału AI i ewentualnych zagrożeń z stosowania narzędzia, którego nie jesteśmy w stanie w pełni kontrolować.
Konieczna jest zmiana myślenia o sztucznej inteligencji
Arvan sugeruje, że zamiast polegać na testach, powinniśmy stosować metody znane z życia społecznego, takie jak zachęty do pożądanych zachowań i sankcje za niepożądane. Arvan podkreśla, że problemem nie jest tylko AI, ale także nasze podejście do ich kontroli.
Komentarze
3Proces poszukiwania (czemu ktoś to nazywa "trenowaniem"?) sieci neuronowych polega na znajdowaniu współczynników minimalizujących wynik funkcji błędu. Nie wiemy jak sieć działa bo szukamy, ale bez zastanawiania się co te współczynniki oznaczają. Używając narzędzi matematycznych (gradient descent) poszukujemy minimum funkcji ale nie mamy zielonego pojęcia dlaczego akurat dla danego parametru to minimum jest osiągane.