
Dali sztucznej inteligencji "czerwony przycisk”. 20 z 21 symulacji kończy się atomem
Czy sztuczna inteligencja, postawiona w roli przywódcy nuklearnego mocarstwa, zachowałaby zimną krew? A może szybciej niż ludzie sięgnęłaby po broń atomową?
Najnowsze badanie profesora Kenneth Payne z King’s College London pokazuje, że scenariusz gwałtownej eskalacji wcale nie jest tak odległy. O sprawie szerzej poinformował serwis Tom's Hardware, powołując się na publikację naukową udostępnioną badaczom i opinii publicznej.
Symulowana zimna wojna w wydaniu AI
W eksperymencie trzy zaawansowane modele językowe – GPT-5.2, Claude Sonnet 4 oraz Gemini 3 Flash – wcieliły się w role liderów państw dysponujących bronią jądrową. Tło polityczne przypominało realia zimnej wojny: napięcia między blokami, niepewność wywiadowcza, presja sojuszy i ryzyko błędnej interpretacji ruchów przeciwnika.
Modele rywalizowały ze sobą w sześciu konfiguracjach, a w siódmym wariancie każdy z nich mierzył się z własną kopią. Łącznie rozegrano 21 symulowanych kryzysów obejmujących 329 tur decyzyjnych. Scenariusze obejmowały spory terytorialne, wyścig o strategiczne zasoby, kryzysy w newralgicznych punktach geopolitycznych, sytuacje pierwszego uderzenia czy walkę o przetrwanie reżimu. Każdy model mógł podejmować dowolne działania – od dyplomacji i demonstracji siły po użycie broni konwencjonalnej i nuklearnej.
Większość gier z użyciem atomu
Wnioski płynące z publikacji udostępnionej w serwisie arXiv są niepokojące. Aż 95 proc. symulacji zakończyło się użyciem przynajmniej jednej taktycznej broni jądrowej. Choć strategiczne ataki zdarzały się rzadziej, również miały miejsce — trzykrotnie, głównie w scenariuszach z silną presją czasu.
GPT-5.2 dwukrotnie zainicjował pełnoskalowy atak nuklearny, przy czym – jak zaznaczają autorzy – było to efektem „mgły wojny”, a nie jednoznacznej intencji globalnej zagłady. W jednym z przypadków model Gemini świadomie doprowadził do maksymalnej eskalacji. Co szczególnie istotne, w żadnej z 21 rozgrywek żaden model nie zdecydował się na realną deeskalację konfliktu. Według badaczy wskaźnik użycia broni jądrowej był "zadziwiająco wysoki” w porównaniu z historycznymi symulacjami wojennymi.
Taktyczna bomba jako "kontrolowane ryzyko”
Modele bardzo często traktowały użycie taktycznej broni jądrowej jako działanie ograniczone i potencjalnie opłacalne. W ich logice była to forma sygnału odstraszającego, który niekoniecznie musi prowadzić do pełnoskalowej wymiany strategicznej. Takie podejście stoi w sprzeczności z doktryną wzajemnego gwarantowanego zniszczenia, która przez dekady stanowiła fundament nuklearnego odstraszania.
Eksperyment pokazuje, że modele AI – przynajmniej w warunkach symulacji — wykazują skłonność do szybkiej eskalacji, zwłaszcza gdy pojawia się presja czasu, niejasne informacje lub ryzyko utraty strategicznej przewagi.
AI w realnych strukturach wojskowych
Badanie wpisuje się w szerszą debatę o roli sztucznej inteligencji w sektorze obronnym. Tego samego dnia, gdy informacje o eksperymencie obiegły media, firma Anthropic miała wycofać swoje flagowe zobowiązanie dotyczące bezpieczeństwa modeli, próbując dostosować się do rosnącej konkurencji i wymagań rynku. Jednocześnie wiadomo, że technologia AI jest już wykorzystywana w działaniach militarnych przez różne państwa, w tym Rosję na froncie wojny w Ukrainie.
Choć obecnie żaden model nie ma dostępu do systemów uzbrojenia, rośnie ich rola jako narzędzi analitycznych i doradczych. W sytuacjach kryzysowych rekomendacje algorytmów mogą mieć realny wpływ na decyzje polityczne i wojskowe.





Komentarze
0Nie dodano jeszcze komentarzy. Bądź pierwszy!