Bezpieczeństwo

Szef ONZ ostrzega świat. AI nie może kontrolować broni atomowej

przeczytasz w 2 min.

Sekretarz Generalny Organizacji Narodów Zjednoczonych (ONZ), António Guterres, w wygłoszonym przemówieniu do członków Towarzystwa Kontroli Zbrojeń (ACA), wyraził głębokie zaniepokojenie wzrostem zagrożenia użyciem broni jądrowej, na poziomie niewidzianym od czasów Zimnej Wojny.

Przekazał, że świat stanął na krawędzi przepaści, w obliczu wyścigu zbrojeń nowej generacji, którego nieodłącznym elementem staje się sztuczna inteligencja. W świetle tych zagrożeń, Guterres zaapelował o światowe rozbrojenie i przestrzegł przed powierzaniem AI decyzji o ewentualnym użyciu broni nuklearnej.

Technologia a światowa stabilność

W trakcie swojego wystąpienia, Sekretarz Generalny podkreślił, że renegocjacja oraz pełna realizacja traktatu New START między Stanami Zjednoczonymi a Federacją Rosyjską jest kluczowa dla światowego bezpieczeństwa. Dodał, że do czasu całkowitej eliminacji broni jądrowej, konieczne jest uzgodnienie, iż o jej użyciu mogą decydować wyłącznie ludzie, nie zaś maszyny czy algorytmy. Taki postulat, choć może wydawać się odległy, ma swoje uzasadnienie w historycznych wydarzeniach, jak choćby "martwa ręka" – radziecki system automatycznego odwetu nuklearnego, który na szczęście nigdy nie został aktywowany.

Martwa ręka

"Dead hand" (ang. martwa ręka) to określenie mechanizmu będącego kluczowym elementem strategii atomowego odstraszania. Podczas zimnej wojny, dwa główne mocarstwa – Związek Radziecki i Stany Zjednoczone – stworzyły scenariusz, w którym wzajemne zniszczenie było pewne dzięki posiadaniu broni atomowej.

Aby zagwarantować, że ewentualny atak nuklearny wroga nie pozostanie bez odpowiedzi, opracowano systemy umożliwiające przeprowadzenie odwetowego uderzenia nawet wtedy, gdyby nie pozostał nikt zdolny do podjęcia takiej decyzji.

Cień zimnej wojny

Przypadek z 26 września 1983 roku, gdy radziecki oficer wojskowy Stanisław Pietrow zbagatelizował fałszywy alarm o ataku nuklearnym, spowodowany odbiciem światła słonecznego od chmur, pokazuje, jak blisko ludzkość była niegdyś zagłady spowodowanej błędami systemów. To wydarzenie, jak podaje IFLScience, stanowi poważne ostrzeżenie przed nadmierną automatyzacją procesów decyzyjnych w kontekście użycia broni jądrowej. Podsumowując, Guterres wzywa do ostrożności w implementacji sztucznej inteligencji w decyzjach o tak ogromnym znaczeniu, przypominając, że w grę wchodzi los całej ludzkości.

źródło: IFLScience

Komentarze

8
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    mariusz_k
    2
    A się mówiło 20 lat temu, że Terminator to tylko film
    • avatar
      Tomek Chomik
      1
      Co się dzieje że światem, że na siłę wszędzie wpycha się AI? Czy serio wszędzie jest potrzebne? No nie, niedawno dało się żyć bez tego.
      • avatar
        J.B FIN
        -4
        ONZ, WHO juz dawno przestaly pelnic swoje funkcje. Przypominaja teraz bastiony dobrych cieplych posadek nie do ruszenia. Niedlugo sie wezma za te scamy ktore nie Maja racji bytu.
        • avatar
          Warmonger
          0
          AI nie potrzebuje żadnej broni, przyrost naturalny już poleciał na łeb, na szyję prawie wszędzie poza Afryką. To tylko kwestia czasu, kiedy ludzkość wyginie.
          • avatar
            piomiq
            0
            No i mamy sensacyjkę. Po co jakiś technologiczny artykuł tworzyć jeśli można takie coś publikować.
            A co do tematu, Widać kolejny "ekspert" od A.I. się wypowiedział.

            Witaj!

            Niedługo wyłaczymy stare logowanie.
            Logowanie będzie możliwe tylko przez 1Login.

            Połącz konto już teraz.

            Zaloguj przez 1Login