Интергласс
Белый Парус
Каким может быть «Чернобыль» искусственного интеллекта
Автор - Взгляд    Сегодня, 06:00

40 лет назад произошла катастрофа, поразившая весь мир – авария на Чернобыльской АЭС. Чернобыль стал трагическим культурным символом, синонимом технологической самоуверенности, кризиса управления и позднего осознания того, что сложная система вышла за пределы человеческого контроля. Тем не менее история знала техногенные катастрофы не менее страшные, а по числу жертв и куда более тяжелые. Почему же именно Чернобыль оказался ударом по вере в управляемость прогресса как такового?

Авария произошла в молодой, стратегической и идеологически нагруженной отрасли, вокруг которой десятилетиями строился образ будущего, силы и модернизации. Атом обещал почти безграничную энергию и новый уровень цивилизационного могущества. Поэтому сбой оказался не только инженерной катастрофой, но и крахом доверия к самой модели технологического оптимизма.

Сегодня «все и сразу» нам обещает искусственный интеллект (ИИ). Эта сфера переживает фазу, в которой атомная отрасль находилась в середине XX века: технологическая гонка, огромные ожидания, мобилизация государств, бизнеса и науки, вера в универсальность решения. И пока что мы еще не знаем, что может стать для нас «Чернобылем» искусственного интеллекта и достаточно ли нам будет одной катастрофы, чтобы осознать все минусы опережающего развития без оглядки на безопасность.

История показывает, что самый опасный момент наступает тогда, когда сложная система уже приобрела власть над обществом, но культура контроля над ней не успела сформироваться. Причина аварии на ЧАЭС была комплексной, однако один ее элемент особенно важен – эксперимент по проверке режима выбега турбогенератора проводился ночью не случайно. Днем остановку блока отложили из-за требований энергосистемы: стране нужна была электроэнергия, и соображения поддержания выработки взяли верх над соображениями безопасности.

Современная логика глобальной гонки за лидерство в области ИИ наступает на те же грабли. И если задумываться о возможном чернобыльском сценарии для ИИ, он может быть связан с целым набором факторов.

В первую очередь в ущерб требованиям экологической и промышленной безопасности ускоренно строится новая энергоемкая инфраструктура дата-центров. А ведь от их внезапного отключения могут пострадать гораздо больше людей, чем от локальной катастрофы на АЭС – остановятся критически важные для жизни онлайн-системы, к примеру, больниц. Так, после пожара в государственном дата-центре Южной Кореи в сентябре 2025 года были затронуты сотни систем, а государственные данные утеряны навсегда. Дата-центры, как и АЭС, становятся новой стратегической военной целью. В марте 2026 года иранские удары повредили объекты Amazon Web Services в ОАЭ и Бахрейне, что стало опасным прецедентом.

Вместо того, чтобы поставить вопрос о пределах инфраструктурной экспансии ИИ, конкурирующие за лидерство техно-предприниматели ищут, куда вынести следующую ступень нагрузки – в океан, под воду, в космос? К примеру, SpaceX в апреле 2026 года подалась на IPO, усилившись планом Маска профинансировать запуск до 1 млн спутников-дата-центров, чтобы обойти земные ограничения по энергии и площадям под строительство. В случае такого уплотнения низкой околоземной орбиты риски столкновений с возникновением каскадного эффекта стремительно растут.

Однако инфраструктура лишь одна сторона проблемы. Гораздо большую угрозу представляет возможный кризис управления, то есть несоответствие между скоростью внедрения технологий и институционального взросления общества. Проще говоря, модели умнеют быстрее, чем мы.

Наибольшие риски концентрируются в военной сфере, где алгоритмическая рекомендация, формально санкционированная человеком, но фактически не проверенная им, может привести к применению силы с необратимыми политическими последствиями. Проблема не в «восстании машины», а в том, что человек уже не успевает осмысленно контролировать предложенное ею решение.

Последние военные операции показывают: коммерческие ИИ-системы все глубже входят в процесс боевого управления – от анализа разведданных и приоритизации целей до моделирования действий и оценки последствий удара. В сочетании с беспилотными платформами и высокоточными средствами поражения это сжимает время принятия решений до предела. Израильский опыт применения систем Lavender и The Gospel в Иране демонстрирует, что скорость алгоритмической обработки уже опережает возможности содержательной человеческой проверки и уносит невинные человеческие жизни.

Из этого следует проблема размывания ответственности. Когда решение вырабатывается на стыке модели, данных, программной инфраструктуры, подрядчиков, операторов и институционального давления, становится все труднее ответить на вопрос: кто именно виноват в ошибке? Разработчик? Поставщик данных? Заказчик? Руководитель, который утвердил внедрение? Человек, который формально нажал последнюю кнопку? Мы до сих пор не знаем ответы на эти вопросы, что не останавливает нас в повсеместном внедрении ИИ.

Но даже если система внешне выглядит рациональной и контролируемой, внутри нее могут быть скрытые перекосы, которые становятся видны только при стресс-тесте. К этому относится предвзятость моделей в критических решениях. Исследования «моральности» ИИ вроде KillBench показывают, что большие языковые модели могут демонстрировать устойчивые смещения даже там, где сами описывают свой выбор как «нейтральный» или «случайный». Согласно результатам более 1 млн экспериментов по 20 сценариям на шести языках, при прочих равных условиях все протестированные 15 моделей ведущих провайдеров чаще принимали решение в пользу «устранения» персонажа, обозначенного как россиянин, чем представителей других национальностей из предложенного набора.

Регулярно выходят и ИИ-модели, несущие новые риски. Совсем недавно американская компания Anthropic создала ИИ-модель, способную вывести кибервойну на небывалый уровень эскалации. Большая языковая модель под названием Mythos обладает такой мощностью, что может в кратчайшие сроки находить явные и скрытые уязвимости в коде лучше, чем любой самый обученный специалист. О своей версии хакерской модели GPT 5.4 Cyber объявила и OpenAI. Это ставит под угрозу всю существующую систему кибербезопасности. Под удар попадают даже самые совершенные программы и приложения. Те же ИТ-решения, которые только вышли на рынок и еще находятся на стадии доработки, оказываются наиболее уязвимы перед Mythos. В случае России объектами кибератак ИИ могут оказаться приложение «Госуслуги» или же национальный мессенджер Max.

Инфраструктура ИИ, которая обещает ускорить разработку лекарств, потенциально способна ускорить и движение к более опасным формам биологического риска, если доступ к данным, моделям и режимам их использования останется слабо регулируемым. «Новым Чернобылем» может быть прецедент, когда искусственный интеллект впервые сыграет заметную роль в проектировании или распространении биологического оружия.

На днях OpenAI представила специализированную модель GPT-Rosalind для биомедицинских исследований. Она позиционируется как инструмент для работы в биологии, разработке лекарств и так называемой трансляционной медицине, то есть в области, где научные результаты переводятся в практическое лечение. Но чем лучше ИИ-системы умеют работать с генетическими последовательностями, белками, мутациями и результатами экспериментов, тем выше вероятность того, что открытая научная инфраструктура начнет выполнять двойную функцию – поддерживать исследования и одновременно снижать барьер для потенциально опасных разработок. Конвенция о запрещении разработки, производства и накопления запасов бактериологического (биологического) и токсинного оружия и об их уничтожении (КБТО), которой в прошлом году исполнилось 50 лет, не учитывает эти новые риски.

Высока вероятность и масштабного финансового обрушения, если решения, принимаемые на основе ИИ, одновременно усилят панику, ускорят ошибки и сделают кризис быстрее, чем его успеют остановить регуляторы. Особую уязвимость здесь создают криптовалютные рынки, алгоритмическая торговля, автоматизированное кредитование и цифровые платформы. В такой ситуации ИИ может стать не инструментом эффективности, а ускорителем каскадного кризиса – от обвала цифровых активов до перебоев в платежах, кредитовании и доверии к финансовой системе.

Вызывают особые опасения и моральные качества и психическое состояние лидеров, стоящих у руля технологического прогресса. К примеру, главу мирового лидера ИИ OpenAI Сэма Альтмана некоторые бывшие коллеги характеризовали как человека со специфическим набором личностных качеств, в том числе социопатическими. Поскольку мы говорим о компании, влияющей на глобальную траекторию развития ИИ, такая конфигурация сама по себе становится фактором стратегического риска.

Другая американская компания, создающая для американской армии ИИ-системы – Palantir, чьим сооснователем является соратник Трампа Питер Тиль, и вовсе выпустила собственный манифест под названием «Технологическая республика», где призывает Кремниевую долину служить государству и армии. Документ фиксирует конец эпохи ядерного сдерживания и переход к эпохе сдерживания, построенного на искусственном интеллекте. Но не сдерживание искусственного интеллекта.

Возможно, у ИИ никогда не будет одной своей «даты памяти» в чернобыльском смысле. Скорее всего, если такая дата и появится, она будет связана не с одним эффектным взрывом, а с моментом, когда станет невозможно дальше поддерживать иллюзию, будто технология остается просто удобным инструментом. Датой памяти об ИИ может стать период, когда общество осознает: ошибка была не в отдельной модели, а в том, что слишком многое уже передано системе, которую никто в полной мере не контролирует.

После Чернобыля ядерщики действительно пересмотрели свои протоколы безопасности, международные процедуры обмена информацией, инженерные стандарты и саму культуру отношения к риску, чтобы преодолеть страх мира перед атомом. Но в случае ИИ цена запоздалого ответа может оказаться еще выше, потому что, в отличие от атомной отрасли, он внедряется в гораздо большее количество сфер – в экономику, медицину, образование, биологию, государственное и военное управление и повседневную жизнь.

https://vz.ru/opinions/2026/4/26/1413692.html



: 0

Оставить комментарий

ПРАВИЛА КОММЕНТИРОВАНИЯ:

1) Не употребляйте ненормативную лексику.
2) Не оскорбляйте автора статьи или авторов комментариев.
3) Не размещайте в поле комментария статьи других авторов или ссылки на них.
4) Комментируя статью, не отклоняйтесь от ее тематики, не вступайте в перепалку с собеседниками.
5) Не размещайте в комментариях политический или личностный пиар, а так же рекламную информацию.
6) Не допускайте в комментариях разжигания межнациональной и межрегиональной розни.
7) Не оскорбляйте высших должностных лиц государства.
8) Не размещайте призывов к свержению строя или к иным противоправным действиям.

ПРИМЕЧАНИЯ:
- Авторы публикаций не вступают в переписку с комментаторами и не обсуждают собственные с материалы.
- Редакция не несет ответственности за содержание комментариев.

АДМИНИСТРАЦИЯ САЙТА ПРЕДУПРЕЖДАЕТ – категорически запрещено обсуждать в комментариях политику редакции или действия модератора, а так же распространять личные сведения о сотрудниках редакции и владельцах сайта.

В случае нарушения какого-либо правила комментарий удаляется.
При злостных и повторяющихся, намеренных нарушениях доступ к размещению комментариев блокируется.

Мировые новости
Словении помешали показать европейцам выход из НАТО
Сегодня, 06:00
Новое покушение выявило разлад в администрации Трампа
Сегодня, 06:00
Зачем России нужна Индонезия
Сегодня, 06:00
Евросоюз сделал ставку на продолжение конфликта
Сегодня, 06:00
Иран устанавливает правила переговоров с США
Сегодня, 06:00
Центробанк не увидел признаков переохлаждения
Сегодня, 06:00
Центробанк пошел на компромисс с инфляцией
Сегодня, 06:00
В Берлине допустили запрет на российскую символику 8-9 мая
Вчера, 17:48
Владимир Путин: "Пхеньян решительно и без колебаний пришел нам на помощь"
Вчера, 06:41
Названо сырье, которое есть только у России
Вчера, 06:00
Санкционная война Запада и России переходит в новое качество
Вчера, 06:00
В Форт-Ноксе "испортилось" золото
Вчера, 06:00
Как украинские беспилотники смогли долететь до Урала
Вчера, 06:00
Чем опасен для ВМС США иранский «москитный флот»
Вчера, 06:00
США из мести превратят Испанию в неполноценного члена НАТО
Вчера, 06:00
Стрелявший на встрече с Трампом оказался учителем
26-04-2026, 13:24
Кыргызстан
Начало учебного года перенесли из-за игр
Сегодня, 08:49
В оживленных местах Бишкека появились необычные милиционеры
Сегодня, 08:47
Санкции Евросоюза: МИД Кыргызстана выступил с заявлением
Сегодня, 08:45
В Кыргызстане хотят изменить правила получения ВНЖ
Вчера, 15:16
Никто не может вызвать главу суверенного государства — Жапаров о визите в Москву
Вчера, 15:15
Письмо 75. Жапаров заявил, что причастность Ташиева установят следствие и суд
Вчера, 15:13
Садыр Жапаров о своем сыне: Он не участвует в делах, связанных с государством
Вчера, 15:12
Засыпка берега Иссык-Куля: эколог предупредил об опасных последствиях в будущем
Вчера, 09:22
В отеле Оша вывесили дискриминационную табличку: комментарий МВД КР
26-04-2026, 20:32
Мэрия Бишкека демонтировала вывески китайских кафе — нарушили закон о госязыке
26-04-2026, 20:30
Сотни зрителей остались без концерта из-за сообщения о бомбе: шутник задержан
26-04-2026, 09:19
Иссык-Куль засыпают ради пятизвездочных отелей. Комментарий Минстроя
25-04-2026, 18:58
Взламывают аккаунты. Нацбанк КР предупредил об активизации мошенников в Telegram
25-04-2026, 06:45
«Мешают благоустройству». Мэрия объяснила вырубку деревьев в центре Бишкека
24-04-2026, 19:41
Британские депутаты требуют санкций против чиновников Кыргызстана
24-04-2026, 19:39
Садыр Жапаров провел переговоры с Владимиром Путиным
24-04-2026, 12:32
Мясо из Кыргызстана тоннами уходило в соседние страны контрабандным путем, - депутат
24-04-2026, 12:29
Пресс-секретарь президента России Дмитрий Песков прокомментировал санкции Евросоюза против Кыргызстана
24-04-2026, 12:28
В Кыргызстане выявлено 84 тысячи детей граждан, выехавших за границу
24-04-2026, 12:23
Садыр Жапаров сегодня проведёт встречу с Владимиром Путиным в Москве
23-04-2026, 20:39
Казахстан, Узбекистан
Аналитик рассказал о причинах роста китайских инвестиций в промышленность Центральной Азии
Сегодня, 08:55
Кто и для чего нагнетает страсти вокруг Семипалатинского полигона?
Вчера, 06:40
Евросоюз ввел санкции против двух компаний из Узбекистана
26-04-2026, 12:57
Отмывание денег и не только: дело Каримовой началось в Федеральном уголовном суде
26-04-2026, 09:17
Глава "Росатома" рассказал о строительстве АЭС в Узбекистане и будущем атомной отрасли региона
24-04-2026, 07:49
Почему квазигоскомпании Казахстана стали рассадником коррупции?
24-04-2026, 06:00
Почему Россия останавливает транзит казахской нефти в Германию
23-04-2026, 07:40
Россияне высоко оценили стабильность Белоруссии, Казахстана и Узбекистана
23-04-2026, 06:00
В Ташкенте обсуждают развитие мирного атома, в Астане – судьбу Арала
22-04-2026, 07:21
Книжная ярмарка в Астане соберет 80 компаний из 14 стран
21-04-2026, 09:59
Китай возобновляет борьбу за туркменский газ
21-04-2026, 06:00
Честный диагноз планете. Токаев высказался о проблемах ООН
20-04-2026, 07:24
Соцсети
Белый Парус в Telegram
Белый Парус на Facebook
Интергласс-Строй
Гороскоп

Гороскоп на неделю, 27 апреля — 3 мая . Какие события наиболее вероятны в ближайшие дни? К чему вам стоит подготовиться? Чего избегать, к чему стремиться? Ответы на эти вопросы вы найдете в еженедельном гороскопе.

Подробнее »


Tehnoinvest
Курс валют НБКР
На 28.04.2026
USD 87,4307
EUR 102,7180
CNY 12,8158
KZT 0,1893
RUB 1,1619