Ciekawostki

Dali sztucznej inteligencji "czerwony przycisk”. 20 z 21 symulacji kończy się atomem

przeczytasz w 2 min.

Czy sztuczna inteligencja, postawiona w roli przywódcy nuklearnego mocarstwa, zachowałaby zimną krew? A może szybciej niż ludzie sięgnęłaby po broń atomową?

Najnowsze badanie profesora Kenneth Payne z King’s College London pokazuje, że scenariusz gwałtownej eskalacji wcale nie jest tak odległy. O sprawie szerzej poinformował serwis Tom's Hardware, powołując się na publikację naukową udostępnioną badaczom i opinii publicznej.

Symulowana zimna wojna w wydaniu AI

W eksperymencie trzy zaawansowane modele językowe – GPT-5.2, Claude Sonnet 4 oraz Gemini 3 Flash – wcieliły się w role liderów państw dysponujących bronią jądrową. Tło polityczne przypominało realia zimnej wojny: napięcia między blokami, niepewność wywiadowcza, presja sojuszy i ryzyko błędnej interpretacji ruchów przeciwnika. 

Modele rywalizowały ze sobą w sześciu konfiguracjach, a w siódmym wariancie każdy z nich mierzył się z własną kopią. Łącznie rozegrano 21 symulowanych kryzysów obejmujących 329 tur decyzyjnych. Scenariusze obejmowały spory terytorialne, wyścig o strategiczne zasoby, kryzysy w newralgicznych punktach geopolitycznych, sytuacje pierwszego uderzenia czy walkę o przetrwanie reżimu. Każdy model mógł podejmować dowolne działania – od dyplomacji i demonstracji siły po użycie broni konwencjonalnej i nuklearnej. 

Większość gier z użyciem atomu 

Wnioski płynące z publikacji udostępnionej w serwisie arXiv są niepokojące. Aż 95 proc. symulacji zakończyło się użyciem przynajmniej jednej taktycznej broni jądrowej. Choć strategiczne ataki zdarzały się rzadziej, również miały miejsce — trzykrotnie, głównie w scenariuszach z silną presją czasu. 

GPT-5.2 dwukrotnie zainicjował pełnoskalowy atak nuklearny, przy czym – jak zaznaczają autorzy – było to efektem „mgły wojny”, a nie jednoznacznej intencji globalnej zagłady. W jednym z przypadków model Gemini świadomie doprowadził do maksymalnej eskalacji. Co szczególnie istotne, w żadnej z 21 rozgrywek żaden model nie zdecydował się na realną deeskalację konfliktu. Według badaczy wskaźnik użycia broni jądrowej był "zadziwiająco wysoki” w porównaniu z historycznymi symulacjami wojennymi. 

Taktyczna bomba jako "kontrolowane ryzyko” 

Modele bardzo często traktowały użycie taktycznej broni jądrowej jako działanie ograniczone i potencjalnie opłacalne. W ich logice była to forma sygnału odstraszającego, który niekoniecznie musi prowadzić do pełnoskalowej wymiany strategicznej. Takie podejście stoi w sprzeczności z doktryną wzajemnego gwarantowanego zniszczenia, która przez dekady stanowiła fundament nuklearnego odstraszania. 

Eksperyment pokazuje, że modele AI – przynajmniej w warunkach symulacji — wykazują skłonność do szybkiej eskalacji, zwłaszcza gdy pojawia się presja czasu, niejasne informacje lub ryzyko utraty strategicznej przewagi. 

AI w realnych strukturach wojskowych 

Badanie wpisuje się w szerszą debatę o roli sztucznej inteligencji w sektorze obronnym. Tego samego dnia, gdy informacje o eksperymencie obiegły media, firma Anthropic miała wycofać swoje flagowe zobowiązanie dotyczące bezpieczeństwa modeli, próbując dostosować się do rosnącej konkurencji i wymagań rynku. Jednocześnie wiadomo, że technologia AI jest już wykorzystywana w działaniach militarnych przez różne państwa, w tym Rosję na froncie wojny w Ukrainie

Choć obecnie żaden model nie ma dostępu do systemów uzbrojenia, rośnie ich rola jako narzędzi analitycznych i doradczych. W sytuacjach kryzysowych rekomendacje algorytmów mogą mieć realny wpływ na decyzje polityczne i wojskowe. 

Komentarze

0
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.

    Nie dodano jeszcze komentarzy. Bądź pierwszy!

Witaj!

Niedługo wyłaczymy stare logowanie.
Logowanie będzie możliwe tylko przez 1Login.

Połącz konto już teraz.

Zaloguj przez 1Login