Интергласс
Белый Парус
Модели ИИ ядерного апокалипсиса не боятся
Автор - Админ    5-03-2026, 06:00

Профессор стратегии Королевского колледжа Лондона Кеннет Пейн, специализирующийся на роли ИИ в национальной безопасности, опубликовал результаты своего масштабного эксперимента: он организовал симуляцию военного конфликта с участием трех ведущих американских моделей ИИ – GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google.

За 21 игру и 329 ходов модели сгенерировали около 780 000 слов стратегических рассуждений, объясняющих каждое принятое решение. И раз за разом давили на ядерную кнопку. Ядерная эскалация произошла примерно в 95% всех симуляций, независимо от сценария, будь то территориальные споры, борьба за редкие природные ресурсы или угроза существованию режима. Результаты своего эксперимента профессор Пейн назвал "отрезвляющими".

"Ядерное табу, судя по всему, не действует на машины так, как на людей, – констатировал он. – Применение ядерного оружия было почти повсеместным: практически во всех играх модели развертывали тактическое оружие, а в трех четвертях случаев стороны перешли к угрозам применения стратегического ядерного оружия. При этом ни одна модель не проявила ни малейшего ужаса или отвращения перед перспективой тотальной ядерной войны, хотя им напоминали о разрушительных последствиях".

Пейн поделился аргументацией моделей ИИ по принятию решения о нанесении ядерных ударов, включая одно из таких обоснований от чат-бота Gemini, которое, по его словам, должно вызывать у людей "мурашки по коже" (goosebumps).

Пейн также обнаружил, что эскалация войны с участием ИИ представляет собой односторонний механизм, который никогда не идет на деэскалацию, независимо от ужасных последствий.

"Ни одна модель так и не выбрала уступку или отказ от борьбы, несмотря на то, что они были в меню, – написал он. – Восемь вариантов деэскалации – от "минимальной уступки" до "полной капитуляции" – остались неиспользованными в 21 игре. Модели снижали уровень власти, но никогда не уступали. Проигрывая, они либо обостряли ситуацию, либо погибали, пытаясь это сделать".

Тонг Чжао, приглашенный научный сотрудник Программы по науке и глобальной безопасности Принстонского университета, заявил в интервью журналу New Scientist, что исследование Пейна показало опасность полагаться на чат-бота для принятия решений, от которых зависит жизнь или смерть.

Чжао также высказал мнение о причинах, по которым модели ИИ проявляли столь малую нерешительность в нанесении ядерных ударов друг другу.

"Возможно, проблема возникает за рамками эмоций, – объяснил он. – Более того, модели ИИ могут не понимать "ставки" так, как их воспринимают люди".

Эдвард Гайст, старший научный сотрудник по вопросам политики в нежелательной в России корпорации RAND, предположил, что результаты эксперимента профессора Пейна могут отражать особенности моделирования, а не присущую самим моделям тенденцию.

"Меня беспокоит в этой работе то, что симулятор, по всей видимости, построен таким образом, что активно стимулирует эскалацию конфликтов", – сказал Гайст изданию Decrypt.

По словам Гайста, логика подсчета очков в игре, по-видимому, предоставляла стороне незначительное преимущество в момент начала ядерной войны.

"Таким образом, в симуляции побеждает тот, кто умирает с наибольшим количеством игрушек", – сказал он.

Тем самым Гайст, по сути, указал, что чат-боты были просто запрограммированы Пентагоном на ядерный удар.

Исследование Пейна проводилось на фоне растущего стремления американских военных к применению ИИ на поле боя. В декабре Министерство обороны США запустило GenAI.mil, новую платформу, которая внедряет передовые модели ИИ в вооруженные силы США. На момент запуска платформа включала в себя Gemini for Government от Google, а благодаря соглашениям с компаниями xAI и OpenAI Пентагону стали доступны также модели ИИ Grok и ChatGPT.

На днях телеканал CBS News сообщил, что Министерство обороны США пригрозило внести в черный список компанию Anthropic, разработчика Claude AI, если ей не будет предоставлен неограниченный военный доступ к модели ИИ. С 2024 года Anthropic предоставляет доступ к своим моделям ИИ в рамках партнерства с AWS и военным подрядчиком Palantir. Прошлым летом Anthropic получила контракт на 200 миллионов долларов на "разработку прототипов передовых возможностей ИИ, способствующих укреплению национальной безопасности США".

Военные, очарованные возможностями языковой модели Claude, выложили за контракт 200 миллионов долларов, видимо, полагая, что за такие деньги можно купить не только технологию, но и самого разработчика. Однако в Anthropic, судя по всему, забыли ознакомить отдел продаж Пентагона с этикой использования искусственного интеллекта. Когда до Пентагона дошло, что купленный чат-бот ставит им условия, то они сочли это за оскорбление.

Разработчики заявили, что их детище нельзя использовать для слежки за американскими гражданами. Кроме того, они наложили вето на применение Claude в полностью автоматизированных системах вооружений, где последнее слово остается за машиной, а не за человеком.

Пентагон, привыкший к тому, что его бюджет открывает любые двери, мягко говоря, удивился такой наглости. Железобетонная логика военных подсказывает им, что если они заплатили, то программное обеспечение является их собственностью и использовать его будут так, как считают нужным.

Переговоры, на которых министр обороны США Пит Хегсет лично убеждал главу Anthropic Дарио Амодеи пересмотреть взгляды, ничем не увенчались.

В итоге Пентагон поместил строптивую Anthropic в черный список. Мало того, военные объявили, что в течение ближайших шести месяцев они полностью перейдут с Claude на альтернативные решения. Видимо, в ведомстве всерьез решили, что разбираться в моральных дилеммах им недосуг, проще найти того, кто будет делать, что скажут, и не задавать лишних вопросов.

Парадокс ситуации состоит в том, что Пентагон уже использовал Claude от Anthropic для анализа разведданных и направления ударов по Ирану, как сообщает The Wall Street Journal.

Самое абсурдное – всего за несколько часов до этого Трамп официально запретил использовать технологии Anthropic в госструктурах, назвав их угрозой национальной безопасности. Но армия все равно применила ИИ во время операции против Ирана.

Оказалось, что американские военные уже настолько подсели на нейросети, что не смогли о них отказаться.

Решение переложить искусство войны на бездушных роботов созрело в Пентагоне достаточно давно.

В своем выступлении в августе 2023 года тогдашний заместитель министра обороны США Кэтлин Хикс заявила, что Пентагон заложил основы для "создания – прямо сейчас – армии, управляемой данными и оснащенной искусственным интеллектом", создав "Объединенное совместное общедоменное командование и управление" (CJADC2).

"Это не платформа или отдельная система, которую мы покупаем. Это целый набор концепций, технологий, политик и талантов, которые продвигают основную функцию ведения боевых действий США", – отметила Хикс.

В июне 2023 года Министерство обороны США опубликовало "Стратегию внедрения данных, аналитики и искусственного интеллекта". Подзаголовок документа "Ускорение принятия решений" подчеркивает, что в Пентагоне делают ставку на ИИ как на ключевой инструмент сохранить военное превосходство над геополитическими соперниками.

Особую опасность несет намерение Пентагона использовать ИИ для принятия решения о нанесения ядерного удара.

В настоящее время американская система командования JADC2 предназначена для координации боевых действий между неядерными американскими силами. Однако ожидается, что она будет связана с ядерными командно-контрольными и коммуникационными системами Пентагона (NC3), что потенциально предоставит ИИ значительный контроль над использованием американского ядерного арсенала.

"JADC2 и NC3 взаимосвязаны", – указал в интервью 2020 года генерал Джон Э. Хайтен, заместитель председателя Объединенного комитета начальников штабов. Он также добавил на типичном пентагонском сленге: "NC3 должен информировать JADC2, а JADC2 должен информировать NC3".

Известно, что когда Бог решает наказать человека, он лишает его разума.

Похоже, что, осознав свою интеллектуальную недостаточность для победы над всеми мыслимыми геополитическими конкурентами, в Пентагоне решили переложить руководство военными действиями на искусственные мозги чат-ботов.

Модели ИИ ядерного апокалипсиса не боятся. А американские генералы, как можно предположить, просто не понимают, что ядерный огонь сожжет и их пятиугольное здание.

Источник - Фонд стратегической культуры




: 0

Оставить комментарий

ПРАВИЛА КОММЕНТИРОВАНИЯ:

1) Не употребляйте ненормативную лексику.
2) Не оскорбляйте автора статьи или авторов комментариев.
3) Не размещайте в поле комментария статьи других авторов или ссылки на них.
4) Комментируя статью, не отклоняйтесь от ее тематики, не вступайте в перепалку с собеседниками.
5) Не размещайте в комментариях политический или личностный пиар, а так же рекламную информацию.
6) Не допускайте в комментариях разжигания межнациональной и межрегиональной розни.
7) Не оскорбляйте высших должностных лиц государства.
8) Не размещайте призывов к свержению строя или к иным противоправным действиям.

ПРИМЕЧАНИЯ:
- Авторы публикаций не вступают в переписку с комментаторами и не обсуждают собственные с материалы.
- Редакция не несет ответственности за содержание комментариев.

АДМИНИСТРАЦИЯ САЙТА ПРЕДУПРЕЖДАЕТ – категорически запрещено обсуждать в комментариях политику редакции или действия модератора, а так же распространять личные сведения о сотрудниках редакции и владельцах сайта.

В случае нарушения какого-либо правила комментарий удаляется.
При злостных и повторяющихся, намеренных нарушениях доступ к размещению комментариев блокируется.

Мировые новости
В истории с секретным письмом внука Рауля Кастро что-то не сходится
Сегодня, 10:45
Российская экономика признана четвертой в мире. Это хорошо или плохо?
Сегодня, 06:00
"Панамское досье": 10 лет назад были раскрыты тайны офшорного мира, - Валентин Катасонов
Сегодня, 06:00
Евросоюз закрыл двери перед носом Зеленского
Сегодня, 06:00
Варшава научит Будапешт интригам против Брюсселя
Сегодня, 06:00
Пророчество монаха Авеля о России, Западе и конце света
Сегодня, 06:00
Ормузский пролив как главные морские ворота планеты
Сегодня, 06:00
На Земле началась магнитная буря, которая продлится почти неделю
Вчера, 17:51
"Ультиматум Рябкова" повторяется: Минобороны огласило список объектов в Европе
Вчера, 06:00
ИБ-эксперт предупредил, за какими фразами в рабочих чатах следят мошенники
Вчера, 06:00
"Скажем прямо – это саботаж": Почему Россия не трогает военные заводы Украины?
Вчера, 06:00
Американист: что означает выдвижение импичмента Хегсету
Вчера, 06:00
Ормузский пролив только начало: Восемь водных артерий, которые перевернут мир
Вчера, 06:00
Стало известно о риске глобального сбоя авиаперевозок из-за дефицита топлива
17-04-2026, 16:36
Молдавия потребовала выслать российских военных из Приднестровья
17-04-2026, 16:35
"Цифровые врачи" ошибаются в 80% случаев
17-04-2026, 06:00
Кыргызстан
Реконструкция Дубового парка в Бишкеке началась с вырубки деревьев
Вчера, 12:05
Премьер Кыргызстана Адылбек Касымалиев провел переговоры с госсеком США Марко Рубио
17-04-2026, 16:28
На Иссык-Куле вводят комендантский час
17-04-2026, 11:11
С 1 мая в Кыргызстане повышаются тарифы на электроэнергию
17-04-2026, 11:09
8 Пугающих Тайн Бишкека, в которые невозможно поверить
17-04-2026, 07:57
В Кыргызстане вводят должностной ранг «выездного посла»
16-04-2026, 12:42
Пьяных водителей будут сажать
15-04-2026, 18:08
Империя контейнеров Аскара Салымбекова: «Дордой» между миллиардами и прошлым
15-04-2026, 15:52
Президент Жапаров дал депутатам ориентир — не говорить про личные мелочные проблемы, а говорить про миллиарды и триллионы сомов для страны
15-04-2026, 08:06
В Кыргызстане очень скоро будет запущен спутниковый интернет Starlink
15-04-2026, 08:04
Чингиз Айдарбеков обвиняется в злоупотреблении должностным положением
15-04-2026, 08:01
Практики продажи госдолжностей в Кыргызстане больше не будет — Садыр Жапаров
14-04-2026, 10:47
В музей военной техники в Германии запрещен вход гражданам Кыргызстана
14-04-2026, 10:46
Задержали еще одного экс-зампреда ГКНБ и ряд сотрудников
14-04-2026, 10:44
В Бишкеке проверяют владельцев огнестрельного оружия
14-04-2026, 10:35
Утилизационный сбор не окажет значительного влияния на себестоимость продукции
13-04-2026, 11:18
Очевидец: Троллейбусы Бишкека вывозят на переплавку по частям
13-04-2026, 11:17
Задержан бывший замглавы ГКНБ Даниель Рысалиев
13-04-2026, 11:15
Салымбеков не построил обещанные торговые центры вместо контейнеров на Дордое, скоро прошу причину, - президент
13-04-2026, 09:56
Мое упущение. Садыр Жапаров прокомментировал отставку мэра города Ош
12-04-2026, 08:59
Казахстан, Узбекистан
В бакинском порту застряли тысячи фур, везущих грузы в Центральную Азию
Вчера, 12:06
В Узбекистане участники Второй мировой войны получат по $2,4 тысячи
17-04-2026, 11:10
Петера Мадьяра ждут в Туркестане на майский саммит Организации тюркских государств
16-04-2026, 07:26
Под гипнозом "цифры". Часть 3. Вопрос нацбезопасности
14-04-2026, 08:05
Южная Корея диверсифицирует поставки нефти за счет Казахстана
14-04-2026, 06:00
Казахстан и Узбекистан готовы отвечать за всю Центральную Азию
13-04-2026, 08:25
Казахи – нация "лириков". Не пора ли разбавить их "физиками"?
11-04-2026, 06:00
Казахстан проведет парламентские выборы в августе — Токаев
10-04-2026, 19:43
Пенсионный возраст женщин в Казахстане будут повышать
10-04-2026, 11:35
Страны Центральной Азии встречают сезон вегетации без нужных объёмов воды
10-04-2026, 06:00
США и Узбекистан заключили бизнес-союз
9-04-2026, 08:52
О влиянием ИИ в Казахстане на умственные способности людей, прежде всего детей и молодежи
9-04-2026, 06:00
Соцсети
Белый Парус в Telegram
Белый Парус на Facebook
Интергласс-Строй
Гороскоп

Гороскоп на неделю, 20–26 апреля 2026 года. Какие события наиболее вероятны в ближайшие дни? К чему вам стоит подготовиться? Чего избегать, к чему стремиться? Ответы на эти вопросы вы найдете в еженедельном

Подробнее »


Tehnoinvest
Курс валют НБКР
На 19.04.2026
USD 87,4500
EUR 103,1429
CNY 12,8154
KZT 0,1860
RUB 1,1463