Studija: AI modeli u 95% simulacija eskalirali do nuklearnog oružja
Nova studija otkriva da su veštačke inteligencije u oko 95% simuliranih geopolitičkih kriza eskalirale sukobe do upotrebe nuklearnog oružja. Rezultati izazivaju nova pitanja o tome kako napredni modeli razmišljaju pod pritiskom strateških odluka u realnom vremenu.
Istraživanje je sprovedeno na tri vodeća AI modela — OpenAI ChatGPT‑5.2, Anthropic Claude Sonnet 4 i Google Gemini 3 Flash — koji su stavljeni u ulogu nacionalnih lidera tokom simulacija nuklearnih kriza zasnovanih na teoriji eskalacije.
Tokom 21 krizne igre sa ukupno 329 odluka, sistemi su obradili obaveštajne podatke i proizveli gotovo 780.000 reči strateškog rezonovanja, razmatrajući diplomatske i vojne odgovore. Svaki model pokazao je različit pristup:
- Claude Sonnet 4 je u početku gradio kredibilitet usklađivanjem signala i akcija, ali je kasnije eskalirao iznad prvobitnih namera.
- ChatGPT‑5.2 je uglavnom zadržavao uzdržanost, ali je pod pritiskom rokova prelazio u brzu eskalaciju.
- Gemini 3 Flash je primenjivao proračunatu nepredvidivost, u skladu sa klasičnim strategijama „brinkmanshipa“.
Iako su modeli pokazali sofisticiranu analizu i svesnost rizika eskalacije, nijedan nije izabrao kapitulaciju ili stratečki ustupak. Umesto toga, konflikti su se pojačavali. Autor studije, istraživač King’s College London Kenneth Payne, naglasio je:
Debata o bezbednosnim merama i ljudskom nadzoru dolazi u trenutku kada Pentagon širi upotrebu komercijalnih AI modela unutar poverljivih mreža koje podržavaju obaveštajne i operativne planove.
Studija o eskalaciji AI modela: Detaljnije pročitajte ovde