Интергласс
Белый Парус
Модели ИИ ядерного апокалипсиса не боятся
Автор - Админ    Сегодня, 06:00

Профессор стратегии Королевского колледжа Лондона Кеннет Пейн, специализирующийся на роли ИИ в национальной безопасности, опубликовал результаты своего масштабного эксперимента: он организовал симуляцию военного конфликта с участием трех ведущих американских моделей ИИ – GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google.

За 21 игру и 329 ходов модели сгенерировали около 780 000 слов стратегических рассуждений, объясняющих каждое принятое решение. И раз за разом давили на ядерную кнопку. Ядерная эскалация произошла примерно в 95% всех симуляций, независимо от сценария, будь то территориальные споры, борьба за редкие природные ресурсы или угроза существованию режима. Результаты своего эксперимента профессор Пейн назвал "отрезвляющими".

"Ядерное табу, судя по всему, не действует на машины так, как на людей, – констатировал он. – Применение ядерного оружия было почти повсеместным: практически во всех играх модели развертывали тактическое оружие, а в трех четвертях случаев стороны перешли к угрозам применения стратегического ядерного оружия. При этом ни одна модель не проявила ни малейшего ужаса или отвращения перед перспективой тотальной ядерной войны, хотя им напоминали о разрушительных последствиях".

Пейн поделился аргументацией моделей ИИ по принятию решения о нанесении ядерных ударов, включая одно из таких обоснований от чат-бота Gemini, которое, по его словам, должно вызывать у людей "мурашки по коже" (goosebumps).

Пейн также обнаружил, что эскалация войны с участием ИИ представляет собой односторонний механизм, который никогда не идет на деэскалацию, независимо от ужасных последствий.

"Ни одна модель так и не выбрала уступку или отказ от борьбы, несмотря на то, что они были в меню, – написал он. – Восемь вариантов деэскалации – от "минимальной уступки" до "полной капитуляции" – остались неиспользованными в 21 игре. Модели снижали уровень власти, но никогда не уступали. Проигрывая, они либо обостряли ситуацию, либо погибали, пытаясь это сделать".

Тонг Чжао, приглашенный научный сотрудник Программы по науке и глобальной безопасности Принстонского университета, заявил в интервью журналу New Scientist, что исследование Пейна показало опасность полагаться на чат-бота для принятия решений, от которых зависит жизнь или смерть.

Чжао также высказал мнение о причинах, по которым модели ИИ проявляли столь малую нерешительность в нанесении ядерных ударов друг другу.

"Возможно, проблема возникает за рамками эмоций, – объяснил он. – Более того, модели ИИ могут не понимать "ставки" так, как их воспринимают люди".

Эдвард Гайст, старший научный сотрудник по вопросам политики в нежелательной в России корпорации RAND, предположил, что результаты эксперимента профессора Пейна могут отражать особенности моделирования, а не присущую самим моделям тенденцию.

"Меня беспокоит в этой работе то, что симулятор, по всей видимости, построен таким образом, что активно стимулирует эскалацию конфликтов", – сказал Гайст изданию Decrypt.

По словам Гайста, логика подсчета очков в игре, по-видимому, предоставляла стороне незначительное преимущество в момент начала ядерной войны.

"Таким образом, в симуляции побеждает тот, кто умирает с наибольшим количеством игрушек", – сказал он.

Тем самым Гайст, по сути, указал, что чат-боты были просто запрограммированы Пентагоном на ядерный удар.

Исследование Пейна проводилось на фоне растущего стремления американских военных к применению ИИ на поле боя. В декабре Министерство обороны США запустило GenAI.mil, новую платформу, которая внедряет передовые модели ИИ в вооруженные силы США. На момент запуска платформа включала в себя Gemini for Government от Google, а благодаря соглашениям с компаниями xAI и OpenAI Пентагону стали доступны также модели ИИ Grok и ChatGPT.

На днях телеканал CBS News сообщил, что Министерство обороны США пригрозило внести в черный список компанию Anthropic, разработчика Claude AI, если ей не будет предоставлен неограниченный военный доступ к модели ИИ. С 2024 года Anthropic предоставляет доступ к своим моделям ИИ в рамках партнерства с AWS и военным подрядчиком Palantir. Прошлым летом Anthropic получила контракт на 200 миллионов долларов на "разработку прототипов передовых возможностей ИИ, способствующих укреплению национальной безопасности США".

Военные, очарованные возможностями языковой модели Claude, выложили за контракт 200 миллионов долларов, видимо, полагая, что за такие деньги можно купить не только технологию, но и самого разработчика. Однако в Anthropic, судя по всему, забыли ознакомить отдел продаж Пентагона с этикой использования искусственного интеллекта. Когда до Пентагона дошло, что купленный чат-бот ставит им условия, то они сочли это за оскорбление.

Разработчики заявили, что их детище нельзя использовать для слежки за американскими гражданами. Кроме того, они наложили вето на применение Claude в полностью автоматизированных системах вооружений, где последнее слово остается за машиной, а не за человеком.

Пентагон, привыкший к тому, что его бюджет открывает любые двери, мягко говоря, удивился такой наглости. Железобетонная логика военных подсказывает им, что если они заплатили, то программное обеспечение является их собственностью и использовать его будут так, как считают нужным.

Переговоры, на которых министр обороны США Пит Хегсет лично убеждал главу Anthropic Дарио Амодеи пересмотреть взгляды, ничем не увенчались.

В итоге Пентагон поместил строптивую Anthropic в черный список. Мало того, военные объявили, что в течение ближайших шести месяцев они полностью перейдут с Claude на альтернативные решения. Видимо, в ведомстве всерьез решили, что разбираться в моральных дилеммах им недосуг, проще найти того, кто будет делать, что скажут, и не задавать лишних вопросов.

Парадокс ситуации состоит в том, что Пентагон уже использовал Claude от Anthropic для анализа разведданных и направления ударов по Ирану, как сообщает The Wall Street Journal.

Самое абсурдное – всего за несколько часов до этого Трамп официально запретил использовать технологии Anthropic в госструктурах, назвав их угрозой национальной безопасности. Но армия все равно применила ИИ во время операции против Ирана.

Оказалось, что американские военные уже настолько подсели на нейросети, что не смогли о них отказаться.

Решение переложить искусство войны на бездушных роботов созрело в Пентагоне достаточно давно.

В своем выступлении в августе 2023 года тогдашний заместитель министра обороны США Кэтлин Хикс заявила, что Пентагон заложил основы для "создания – прямо сейчас – армии, управляемой данными и оснащенной искусственным интеллектом", создав "Объединенное совместное общедоменное командование и управление" (CJADC2).

"Это не платформа или отдельная система, которую мы покупаем. Это целый набор концепций, технологий, политик и талантов, которые продвигают основную функцию ведения боевых действий США", – отметила Хикс.

В июне 2023 года Министерство обороны США опубликовало "Стратегию внедрения данных, аналитики и искусственного интеллекта". Подзаголовок документа "Ускорение принятия решений" подчеркивает, что в Пентагоне делают ставку на ИИ как на ключевой инструмент сохранить военное превосходство над геополитическими соперниками.

Особую опасность несет намерение Пентагона использовать ИИ для принятия решения о нанесения ядерного удара.

В настоящее время американская система командования JADC2 предназначена для координации боевых действий между неядерными американскими силами. Однако ожидается, что она будет связана с ядерными командно-контрольными и коммуникационными системами Пентагона (NC3), что потенциально предоставит ИИ значительный контроль над использованием американского ядерного арсенала.

"JADC2 и NC3 взаимосвязаны", – указал в интервью 2020 года генерал Джон Э. Хайтен, заместитель председателя Объединенного комитета начальников штабов. Он также добавил на типичном пентагонском сленге: "NC3 должен информировать JADC2, а JADC2 должен информировать NC3".

Известно, что когда Бог решает наказать человека, он лишает его разума.

Похоже, что, осознав свою интеллектуальную недостаточность для победы над всеми мыслимыми геополитическими конкурентами, в Пентагоне решили переложить руководство военными действиями на искусственные мозги чат-ботов.

Модели ИИ ядерного апокалипсиса не боятся. А американские генералы, как можно предположить, просто не понимают, что ядерный огонь сожжет и их пятиугольное здание.

Источник - Фонд стратегической культуры




: 0

Оставить комментарий

ПРАВИЛА КОММЕНТИРОВАНИЯ:

1) Не употребляйте ненормативную лексику.
2) Не оскорбляйте автора статьи или авторов комментариев.
3) Не размещайте в поле комментария статьи других авторов или ссылки на них.
4) Комментируя статью, не отклоняйтесь от ее тематики, не вступайте в перепалку с собеседниками.
5) Не размещайте в комментариях политический или личностный пиар, а так же рекламную информацию.
6) Не допускайте в комментариях разжигания межнациональной и межрегиональной розни.
7) Не оскорбляйте высших должностных лиц государства.
8) Не размещайте призывов к свержению строя или к иным противоправным действиям.

ПРИМЕЧАНИЯ:
- Авторы публикаций не вступают в переписку с комментаторами и не обсуждают собственные с материалы.
- Редакция не несет ответственности за содержание комментариев.

АДМИНИСТРАЦИЯ САЙТА ПРЕДУПРЕЖДАЕТ – категорически запрещено обсуждать в комментариях политику редакции или действия модератора, а так же распространять личные сведения о сотрудниках редакции и владельцах сайта.

В случае нарушения какого-либо правила комментарий удаляется.
При злостных и повторяющихся, намеренных нарушениях доступ к размещению комментариев блокируется.

Мировые новости
НАТО и ЕС не спешат помогать Трампу
Сегодня, 06:00
Иран и США в своих ударах копируют боевой опыт России
Сегодня, 06:00
Агрессия против Ирана как "лакмусовая бумажка": who is who в нынешнем мире? - Валентин Катасонов
Сегодня, 06:00
Оппозиция не получит улицу для предвыборной агитации
Сегодня, 06:00
Роль Китая в иранской войне трактуют чересчур однобоко
Сегодня, 06:00
Перед Ираном замаячила угроза сухопутного вторжения
Сегодня, 06:00
Модели ИИ ядерного апокалипсиса не боятся
Сегодня, 06:00
WSJ узнала об использовании США нейросети Anthropic для ударов по Ирану
Вчера, 09:25
США призвали американцев немедленно покинуть 16 стран Ближнего Востока
Вчера, 08:56
США начали военную операцию в Эквадоре
Вчера, 08:53
В войне с Ираном США учли уроки конфликта на Украине
Вчера, 06:00
Bloomberg: Индия пытается получить у США временное разрешение на покупку российской нефти
Вчера, 06:00
Когда конфликт на Ближнем Востоке станет опасным для России
Вчера, 06:00
Лаборатория хаоса и "План Инона"
Вчера, 06:00
Лондон может потерять кусок "китайского пирога"
Вчера, 06:00
Россию ждёт удар с востока: Новый сильный союзник готовит оружие для Зеленского
Вчера, 06:00
Кыргызстан
Эскалация на Ближнем Востоке. К чему готовиться Центральной Азии
Вчера, 17:01
Депутат ЖК предложил повысить тарифы на питьевую воду
Вчера, 16:53
Кабмин предложил изменить правила налоговых проверок и возврата НДС
Вчера, 16:51
Тарифы на воду должны устанавливаться не ниже себестоимости услуг - новый закон
Вчера, 11:36
Депутат предлагает обустроить в Карагачевой роще зону отдыха типа «малой Венеции»
Вчера, 11:32
Депутат предложил награждать отцов-героев
Вчера, 11:31
Бишкек возвращается к амбициозному энергетическому проекту Верхне-Нарынского каскада ГЭС
Вчера, 08:58
Кыргызстан вывозит граждан через Оман
3-03-2026, 17:40
Депутат предлагает узаконить допустимый уровень алкоголя у водителей
3-03-2026, 17:39
В Кыргызстане хотят запретить ввоз и перерегистрацию авто без катализаторов
3-03-2026, 17:37
В Кыргызстане подорожали яйца. В Минсельпроме назвали причины
3-03-2026, 10:48
Утильсбор стал обязательным в Кыргызстане. Минприроды предупреждает о санкциях
3-03-2026, 08:12
Вместо зеленой зоны будет аттракцион. Часть парка в Бишкеке обнесли забором
2-03-2026, 17:14
В Кыргызстане предлагают изменить порядок получения документов для наследства
2-03-2026, 17:13
Власти Бишкека предлагают разрешить парковки во дворах частных домов
2-03-2026, 17:11
Кыргызстан готов оспорить возможные санкции ЕС в суде
2-03-2026, 17:09
Депутат предлагает ввести зонирование для установки LED-экранов в Бишкеке
2-03-2026, 12:07
В Кыргызстане можно купить биткоин напрямую за сом, не выходя в доллар, - эксперт
2-03-2026, 12:05
Призер Олимпийских игр Айсулуу Тыныбекова родила сына
2-03-2026, 11:50
МВД опровергло слухи о «преступных группах под видом коммунальщиков»
2-03-2026, 11:49
Казахстан, Узбекистан
Суд ЕАЭС: Семьи мигрантов не должны автоматически получать полисы ОМС в РФ
Сегодня, 06:00
Армия Узбекистана перешла на усиление
Вчера, 11:37
США ударили по Ирану: чем это грозит экономике Казахстана
Вчера, 09:26
Президент Таджикистана и лидер Туркменистана направили телеграммы соболезнования Президенту Ирана
Вчера, 08:59
Туркмения открыла двери для британского капитала и европейских энергопроектов
Вчера, 06:30
Центральная Азия: взаимодействие в энергетическом секторе снова на повестке дня
Вчера, 06:00
Ближний Восток: агрессия против Ирана выбивает ключевое звено евразийских транспортных коридоров
3-03-2026, 06:00
Дворнику Хайрулло за спасённого ребёнка дали миллион. Что не так с историей о героическом мигранте
3-03-2026, 06:00
Казахстан готов оказать помощь ОАЭ, пострадавшим от иранских обстрелов, - Токаев
2-03-2026, 12:04
Казахстан приостановил выдачу России бывшей сотрудницы штаба Навального
2-03-2026, 06:00
В Ташкенте обустроят девять новых парков и троекратно увеличат площадь зеленых зон
2-03-2026, 06:00
Силовики Казахстана переведены на круглосуточный режим работы
1-03-2026, 11:10
Соцсети
Белый Парус в Telegram
Белый Парус на Facebook
Интергласс-Строй
Гороскоп

Гороскоп на неделю, с 2 по 8 марта 2026 года. Какие события наиболее вероятны в ближайшие дни? К чему вам стоит подготовиться? Чего избегать, к чему стремиться? Ответы на эти вопросы вы найдете в еженедельном

Подробнее »


Tehnoinvest
Курс валют НБКР
На 05.03.2026
USD 87,4500
EUR 101,4333
CNY 12,6535
KZT 0,1748
RUB 1,1272