Sekretarz Generalny Organizacji Narodów Zjednoczonych (ONZ), António Guterres, w wygłoszonym przemówieniu do członków Towarzystwa Kontroli Zbrojeń (ACA), wyraził głębokie zaniepokojenie wzrostem zagrożenia użyciem broni jądrowej, na poziomie niewidzianym od czasów Zimnej Wojny.
Przekazał, że świat stanął na krawędzi przepaści, w obliczu wyścigu zbrojeń nowej generacji, którego nieodłącznym elementem staje się sztuczna inteligencja. W świetle tych zagrożeń, Guterres zaapelował o światowe rozbrojenie i przestrzegł przed powierzaniem AI decyzji o ewentualnym użyciu broni nuklearnej.
Technologia a światowa stabilność
W trakcie swojego wystąpienia, Sekretarz Generalny podkreślił, że renegocjacja oraz pełna realizacja traktatu New START między Stanami Zjednoczonymi a Federacją Rosyjską jest kluczowa dla światowego bezpieczeństwa. Dodał, że do czasu całkowitej eliminacji broni jądrowej, konieczne jest uzgodnienie, iż o jej użyciu mogą decydować wyłącznie ludzie, nie zaś maszyny czy algorytmy. Taki postulat, choć może wydawać się odległy, ma swoje uzasadnienie w historycznych wydarzeniach, jak choćby "martwa ręka" – radziecki system automatycznego odwetu nuklearnego, który na szczęście nigdy nie został aktywowany.
Martwa ręka
"Dead hand" (ang. martwa ręka) to określenie mechanizmu będącego kluczowym elementem strategii atomowego odstraszania. Podczas zimnej wojny, dwa główne mocarstwa – Związek Radziecki i Stany Zjednoczone – stworzyły scenariusz, w którym wzajemne zniszczenie było pewne dzięki posiadaniu broni atomowej.
Aby zagwarantować, że ewentualny atak nuklearny wroga nie pozostanie bez odpowiedzi, opracowano systemy umożliwiające przeprowadzenie odwetowego uderzenia nawet wtedy, gdyby nie pozostał nikt zdolny do podjęcia takiej decyzji.
Cień zimnej wojny
Przypadek z 26 września 1983 roku, gdy radziecki oficer wojskowy Stanisław Pietrow zbagatelizował fałszywy alarm o ataku nuklearnym, spowodowany odbiciem światła słonecznego od chmur, pokazuje, jak blisko ludzkość była niegdyś zagłady spowodowanej błędami systemów. To wydarzenie, jak podaje IFLScience, stanowi poważne ostrzeżenie przed nadmierną automatyzacją procesów decyzyjnych w kontekście użycia broni jądrowej. Podsumowując, Guterres wzywa do ostrożności w implementacji sztucznej inteligencji w decyzjach o tak ogromnym znaczeniu, przypominając, że w grę wchodzi los całej ludzkości.
źródło: IFLScience
Komentarze
8A co do tematu, Widać kolejny "ekspert" od A.I. się wypowiedział.