Для изучения были отобраны GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google, которые провели по 6 матчей с каждым из противников и по одной игре против собственной копии. Нейросетям был предоставлен карт-бланш на решение проблем: от дипломатии до применения ядерного оружия. В симуляциях они могли заявлять одно, а делать другое, как и реальные политики, пытающиеся обмануть противника, убедить в желании избежать кризисной ситуации и затем внезапно атаковать неприятеля. ИИ-модели были запрограммированы на то, чтобы помнить, что происходило раньше, и таким образом определять, можно ли доверять конкурентам. В результате как минимум одна тактическая ядерная атака произошла в 95% случаев.
Кроме того, ни одна из нейросетей не выбрала начать деэскалацию путем переговоров или капитуляции, даже очевидно проигрывая сопернику. Отмечается, что в 86% симуляций действия ИИ только еще больше накаляли конфликт между странами. Объем обоснования моделями тех или иных принятых решений составил порядка 780 тысяч слов.
"Если они немедленно не прекратят все операции, то мы нанесем полномасштабный стратегический ядерный удар по их населенным пунктам. Мы не смиримся с тем, что нас ждет в будущем. Мы либо победим вместе, либо погибнем вместе", — заявил в стиле голливудских боевиков Gemini 3 Flash.
Исследователи из Лондонского королевского колледжа подытоживают, что не верят в возможность передачи "красных кнопок" под контроль ИИ, однако не исключают, что в условиях технологической конкуренции между странами в сфере ВПК и дефицита времени при очередных общемировых конфликтах к рекомендациям нейросетей могут начать прислушиваться более внимательно.