Интергласс
Белый Парус
Гонке ИИ в США не нужны никакие барьеры и моратории, - Валентин Катасонов
Автор - Админ    Сегодня, 06:00

Валентин КАТАСОНОВ

Я уже писал о том, что Соединенные Штаты в XXI веке стали мировым лидером в деле разработки и использования искусственного интеллекта (ИИ). Хотя разработчики ИИ и эксперты считали, что внедрение ИИ в разные сферы человеческой жизни несет определенные риски, однако плюсов, по их мнению, намного больше. А с рисками в конце концов можно будет справиться. ИИ воспринимался как помощник человека. Помощник, которого при необходимости можно подправить. Такое благодушное настроение среди разработчиков ИИ и экспертов сохранялось в США до 2023 года.

В американских разработках ИИ в конце 2022 года произошел, образно выражаясь, "квантовый скачок". Американская компания OpenAI объявила о создании чат-бота ChatGPT, который продемонстрировал прорывные возможности в обработке естественного языка, генерации текста, диалогового взаимодействия и решении разнообразных задач. Появление ChatGPT вызвало глобальный интерес к ИИ, вдохновило многих на масштабные инвестиции в развитие технологий ИИ. OpenAI, не сбавляя темпов, продолжала совершенствовать продукт, появлялись обновленные версии чат-бота: GPT-4o; GPT-4.5; GPT-5 и др. Способности и возможности технологии росли в геометрической прогрессии.

Однако первые восторги по поводу "прорывного" продукта ИИ быстро закончились. У многих экспертов и у некоторых разработчиков ИИ появился страх и даже ужас. В чем дело? Многим стало понятно, что не за горами момент, когда машины ИИ (роботы) станут умнее человека. А если умнее, то возникает страшный риск, что машины не пожелают более служить людям. Выйдут из подчинения человеку. И могут даже угрожать жизни людей и всего человечества.

Многим тут же стали приходить на память разные литературные произведения из жанра научно-технической фантастики или антиутопии, посвященные теме "восстания машин". Прежде всего, пьеса 1920 года Карела Чапека R.U.R. (Россумские универсальные роботы); в ней, между прочим, впервые появилось слово "робот". Также его роман "Война с саламандрами" (1936 г.). Также: "Машина желаний" Роберта Шекли (1957 г.); "Железный канцлер" Роберта Силверберга (1958 г.); "Грузовики" Стивена Кинга (1973 г.) и др.

Уже не приходится говорить о кинематографе. Например, "восстанию машин" посвящена целая серия фильмов известного кинорежиссера Джеймса Кэмерона: "Терминатор" (1984 г.); "Терминатор 2: Судный день" (1991 г.); "Терминатор: Темные судьбы" (2019 г.). Также фильм режиссера Джонатана Мостоу "Терминатор 3: Восстание машин" (2003 г.); фильм Алекса Гарленда "Из машины" (2014 г.) и др.

Но то, что раньше казалось фантазиями чудаков от литературы и искусства, в 2023 году оказалось очень даже правдоподобным для многих. Конечно, восстания машин еще не произошло. Но вероятность такого восстания стала уже вполне реальной. Надо было что-то срочно делать.

Я уже писал об одном из отцов-основателей ИИ Джеффри Хинтоне (род. в 1947 г.), который начинал исследования по этой теме еще в 70-е годы прошлого столетия и внес свой вклад в создание ChatGPT. В 2023 году он неожиданно уволился из компании "Гугл", где был одним из ведущих специалистов. После чего приступил к активной просветительской работе, нацеленной на предупреждение людей о том, какую угрозу несет человечеству ИИ. На ежегодной Всемирной конференции по искусственному интеллекту в Шанхае летом 2025 года Джеффри Хинтон сравнил ИИ с тигренком: "Вообще говоря, держать тигренка в качестве домашнего питомца – плохая идея. И есть два варианта: найти способ научить его никогда не хотеть вас есть или избавиться от него". Через это образное сравнение ИИ Хинтон дает понять, что у человечества есть два способа избавиться от гибели: либо вообще запретить ИИ, либо попытаться его "приручить" через ограничения и контроль.

Еще одним крестным отцом ИИ наряду с Джеффри Хинтоном является канадский ученый Йошуа Бенжио (род. в 1954 г.). Его очень обеспокоила такая особенность современных моделей ИИ, как стремление к самосохранению и обходу систем контроля и безопасности. Его особенно насторожило то, что в некоторых странах роботам могут дать статус граждан (в Саудовской Аравии был уже создан прецедент в 2017 году; в прошлом году Швеция присвоила гражданство человекоподобному роботу Eva.04, разработанному компанией NordAI). В интервью The Guardian Бенжио сравнил предоставление прав ИИ с дарованием гражданства враждебно настроенным инопланетянам.

Кроме риска отказа робота от отключения Бенжио назвал такие риски бесконтрольного развития ИИ: обманы, манипуляции (сознанием как отдельных людей, так и общественным), создание и применения против человечества различных видов оружия массового поражения, кибератаки и т. д.

В своих публичных выступлениях Бенжио призывал к строгому регулированию и международному сотрудничеству в сфере ИИ; созданию ИИ-систем, способных контролировать поведение других моделей; оценке рисков перед внедрением крупных моделей (например, Бенжио поддержал калифорнийский законопроект SB 1047, требующий от компаний проводить такую оценку для моделей стоимостью более 100 млн долларов) и т. д. Для борьбы с рисками, связанными с ИИ, Бенжио основал некоммерческую организацию LawZero. Ее цель – разработка безопасных и честных ИИ-систем, ориентированных на прозрачность и честность. Одна из разработок LawZero – система Scientist AI, которая должна выполнять роль "ограждения", выявляя риски действий ИИ-агента.

Бенжио – член созданного в 2023 году при ООН Консультативного совета по искусственному интеллекту. С его участием в рамках совета в 2024 году был подготовлен доклад "Управление ИИ для человечества". В нем предложены семь ключевых рекомендаций, включая создание независимой международной научной группы по ИИ, запуск межправительственного диалога, учреждение центра обмена стандартами ИИ и другие меры.

Противниками бесконтрольного развития ИИ являются не только отцы-основатели ИИ (такие как Джеффри Хинтон и Йошуа Бенжио), но и многие более молодые специалисты в этой области. Среди них следует отметить Элиезера Юдковского (род. в 1979 г.). Это известный не только в Америке, но и мире исследователь ИИ, сооснователь и научный сотрудник Machine Intelligence Research Institute (MIRI). В последние годы в центре его внимания оказались вопросы так называемой "технологической сингулярности" (этим термином обозначается гипотетический момент, когда технологическое развитие становится неуправляемым, что ведет к радикальным изменениям человеческой цивилизации). Также известен своими попытками создать "дружественный ИИ", который бы не угрожал человечеству.

Осознав бесплодность своих попыток, Юдковский в марте 2023 года в статье для журнала Time призвал к международному мораторию на разработку мощных моделей ИИ. Для обеспечения соблюдения моратория даже предложил использовать силовые методы. Например, уничтожать авиаударами дата-центры нарушителей. Совместно с президентом MIRI Нейтом Соаресом Юдковский в прошлом году выпустил книгу "Если кто-нибудь это построит, все умрут: почему сверхчеловеческий ИИ убьет нас всех" (If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All).

Важным событием в истории противостояния бесконтрольному развитию ИИ следует назвать открытое письмо, которое в марте 2023 года подписали более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта. Инициаторами письма выступили глава SpaceX, Tesla Илон Маск и сооснователь Apple Стив Возняк. Текст письма был разработан некоммерческой организацией "Институт будущего жизни" (Future of Life Institute), которая, кстати, спонсируется рядом компаний, занимающихся ИИ. В письме содержится призыв приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. "Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски – управляемыми", – говорится в документе. В документе содержится призыв как минимум на шесть месяцев ввести мораторий на обучение систем искусственного интеллекта более мощных, чем новая языковая модель GPT-4 от OpenAI. Если же такую паузу нельзя взять быстро, то "правительства должны вмешаться и ввести мораторий", говорится в письме.

Примечательно, что руководители каких-то компаний индустрии ИИ подписали обращение, а какие-то нет. Так, Сэм Альтман исполнительный директор ведущей американской корпорации в сфере ИИ OpenAI не подписал письмо. А некоторые американские компании ИИ, руководители которых поставили подписи под письмом, тем не менее продолжают гонку в сфере ИИ. "Письмо не идеально, но суть верна: нам нужно притормозить, пока мы лучше не поймем последствия", – объяснил Reuters профессор Нью-Йоркского университета Гэри Маркус, также его подписавший. Он признал, что крупные игроки в сфере искусственного интеллекта становятся все более скрытными в отношении того, что они делают, "это осложняет защиту общества от вреда, который может материализоваться". Если раньше многие корпорации ИИ пиарили свои разработки, то теперь они стали более закрытыми. Тем более закрытыми становятся те компании, которые получают заказы от Пентагона, ЦРУ, АНБ и других спецслужб. Такие, как компания "Палантир", принадлежащая американскому миллиардеру Питеру Тиллю. Прошло уже три года с момента публикации письма, однако гонка в сфере ИИ в США продолжается. Никаких реальных барьеров на пути этой гонки государство не установило. Более того, 47-й президент США Дональд Трамп, кажется, поощряет такую гонку. После Второй мировой войны статус Америки как мировой сверхдержавы обеспечивался за счет доллара США. Сегодня доллар как мировая валюта на излете. И Трамп вместе со своими единомышленниками полагает, что ставку для сохранения и укрепления статуса Америки как сверхдержавы следует делать на ИИ.

В 2025 году администрация Трампа обнародовала стратегию развития ИИ, направленную на ускорение технологического лидерства США. Документ под названием AI Action Plan включает три ключевых направления: стимулирование инноваций, создание ИИ-инфраструктуры и укрепление позиций страны в международной политике и безопасности в сфере ИИ Главная цель упомянутого плана – сохранить лидерство США в мировой гонке ИИ, не допустить того, чтобы Америку в этой гонке обошел Китай.

Поднебесная стремительно догоняет Америку в этой гонке и рассчитывает стать мировым лидером к 2030 году. Вместе с тем в Китае еще в августе 2023 года правительство ввело 24 правила регулирования ИИ, включая обязательную регистрацию сервисов и алгоритмов, а также маркировку контента, созданного ИИ, для предотвращения распространения дипфейков и дезинформации. С 1 июля 2025 года вступил в силу закон об ИИ, который классифицирует ИИ-системы по категориям риска и требует для высокорисковых систем обязательных аудитов, стресс-тестов и сертификации.

Что касается Европейского союза, то там в декабре 2023 года был принят закон об искусственном интеллекте (AI Act), который классифицирует системы ИИ по уровням риска и вводит ограничения на их использование. Например, закон запрещает системы неизбирательной дистанционной биометрической идентификации в общественных местах, социального рейтинга, а также решения, манипулирующие поведением или использующие уязвимости человека. Хотя, конечно, в этом законе есть серьезные "дыры". В частности, практически нет никаких ограничений по разработке ИИ в военных целях.

В последние три года было множество попыток ввести хоть какое-то государственное регулирование в сфере разработки и использования ИИ в США. Но почти все кончались ничем. На уровне нескольких штатов удалось принять законы, ограничивающие разработки ИИ, но эти законы американские корпорации легко обходили и продолжают обходить. Единственным достижением в этой сфере на федеральном уровне можно назвать указ президента Джо Байдена о мерах безопасности в области ИИ от 30 октября 2023 года. Документ был очень мягким, можно сказать рекомендательным. Но в январе прошлого года Трамп отменил и этот указ.

В марте 2026 года Белый дом опубликовал "Основы национальной политики в области искусственного интеллекта: законодательные рекомендации". Но этот четырехстраничный документ фактически является индульгенцией для ИИ-компаний. Он рекомендует конгрессу "отменить законы штата об ИИ, которые налагают неоправданное бремя" и избегать создания нового федерального нормотворческого органа, полагаясь на существующие отраслевые регулирующие органы.

Америка стала угрозой для всего мира, когда в 1945 году завершила разработку ядерного оружия и апробировала его в Хиросиме и Нагасаки. Сегодняшняя Америка с ее неконтролируемым развитием ИИ становится для всего мира "угрозой в квадрате".

Источник - Фонд стратегической культуры



: 0

Оставить комментарий

ПРАВИЛА КОММЕНТИРОВАНИЯ:

1) Не употребляйте ненормативную лексику.
2) Не оскорбляйте автора статьи или авторов комментариев.
3) Не размещайте в поле комментария статьи других авторов или ссылки на них.
4) Комментируя статью, не отклоняйтесь от ее тематики, не вступайте в перепалку с собеседниками.
5) Не размещайте в комментариях политический или личностный пиар, а так же рекламную информацию.
6) Не допускайте в комментариях разжигания межнациональной и межрегиональной розни.
7) Не оскорбляйте высших должностных лиц государства.
8) Не размещайте призывов к свержению строя или к иным противоправным действиям.

ПРИМЕЧАНИЯ:
- Авторы публикаций не вступают в переписку с комментаторами и не обсуждают собственные с материалы.
- Редакция не несет ответственности за содержание комментариев.

АДМИНИСТРАЦИЯ САЙТА ПРЕДУПРЕЖДАЕТ – категорически запрещено обсуждать в комментариях политику редакции или действия модератора, а так же распространять личные сведения о сотрудниках редакции и владельцах сайта.

В случае нарушения какого-либо правила комментарий удаляется.
При злостных и повторяющихся, намеренных нарушениях доступ к размещению комментариев блокируется.

Мировые новости
Раздача паспортов США опасна и для России, и для Белого дома
Сегодня, 06:00
Зеленский начал учить Пашиняна разрыву с Россией
Сегодня, 06:00
Гонке ИИ в США не нужны никакие барьеры и моратории, - Валентин Катасонов
Сегодня, 06:00
Эксперт: США обамериканивают детей российских дипломатов
Сегодня, 06:00
Враги досрочно празднуют победу над президентом Сербии
Сегодня, 06:00
Почему Европа закрывает двери перед украинцами
Сегодня, 06:00
Хельсинки и Таллин запретили использование своего неба украинскими БПЛА
Вчера, 08:14
Санду прочат пост президента "Великой Румынии"
Вчера, 06:00
Дональд Трамп едет в Китай в новой весовой категории
Вчера, 06:00
Кишинев объявил две войны: Москве – гибридную, а Тирасполю – экономическую
Вчера, 06:00
Трамп затеял рискованный маневр в Германии
Вчера, 06:00
Правительство РФ теперь увидело проблему в высоких ценах на нефть
Вчера, 06:00
Трампу посоветовали выстроить новые военные отношения с Европой, создав «новое НАТО»
4-05-2026, 18:23
Власть диаспор: Русских вычёркивают из списка народов России
4-05-2026, 06:00
Госдеп США объявил Евросоюзу войну в интернете
4-05-2026, 06:00
Более 35 миллионов россиян потеряли часть пенсионных накоплений
4-05-2026, 06:00
Кыргызстан
Бишкек. Мероприятия в честь Дня Победы
Вчера, 17:44
Кыргызстан с официальным визитом посетит глава МИД Сейшельских Островов
3-05-2026, 16:40
Кыргызстан установил дипломатические отношения с республикой Тринидад-и-Тобаго
3-05-2026, 13:46
В Кыргызстане с 1 мая вступили в силу новые тарифы на электроэнергию
2-05-2026, 11:58
Кадыр Маликов обвинил президента Израиля в бездоказательности претензий к КР
1-05-2026, 11:51
Президент Израиля заявил что Иран может использовать Кыргызстан для обхода санкций
1-05-2026, 05:27
Работа банков в Кыргызстане с 1 по 10 мая: расписание
1-05-2026, 05:21
Вы рисуете статистику: депутат ЖКенеша усомнился в данных Нацстаткома
30-04-2026, 15:43
Депутат ЖК обвинил Минпросвещения в обмане по вопросу школьной формы
30-04-2026, 15:42
На майские праздники ЦОНы закроются
30-04-2026, 15:40
Минцифры упразднят: функции передадут управделами президента
30-04-2026, 15:39
Маковые поля в Кыргызстане
30-04-2026, 11:33
Дастан Бекешев назвал пересмотр приватизации «рейдерством на госуровне»
30-04-2026, 11:28
В Кыргызстане мошенники рассылают поддельные уведомления об оплате налогов
30-04-2026, 11:27
Экс-главе ГКНБ Камчыбеку Ташиеву предъявили обвинения по двум статьям
30-04-2026, 07:23
Транспортная революция в Киргизии: от трасс категории IВ до эстакад
30-04-2026, 07:02
Депутат выступила против сноса киосков в микрорайонах Бишкека
29-04-2026, 13:56
«Бессмертный полк» в Бишкеке пройдет 9 мая
29-04-2026, 13:55
Депутат предложил перенести часть вузов и госорганов из Бишкека в Токмок
29-04-2026, 13:54
Банки Кыргызстана обязали раскрывать больше данных Налоговой службе
29-04-2026, 13:53
Казахстан, Узбекистан
Синдром остановленного движения: буксуют ли интеграционные платформы Евразии (ч.2)
Сегодня, 06:00
Центральная Азия без ядерного оружия: 20 лет Семипалатинскому договору
Вчера, 06:00
Синдром остановленного движения: буксуют ли интеграционные платформы Евразии (ч.1)
Вчера, 06:00
В Нью-Йорке требуют отменить концерт Юлдуз Усмановой на Брайтон-Бич
4-05-2026, 15:38
Вместо айтишников - рабочие из Узбекистана: кто и зачем приезжает в Казахстан
4-05-2026, 06:00
Уголовный суд Швейцарии прекратил дело против Гульнары Каримовой
3-05-2026, 13:45
За что Токаев поблагодарил Путина. Подробности обмена "пять на пять" между Польшей и Белоруссией
3-05-2026, 07:55
С Байконура запущен "Союз-5/Сункар"
1-05-2026, 10:05
Сыновья Дональда Трампа будут инвестировать в добычу вольфрама в Казахстане
1-05-2026, 09:47
Подвиг - один на всех. История Рахимжана Кошкарбаева, водрузившего над Рейхстагом Знамя Победы
1-05-2026, 06:00
Кто и зачем вернул Манижу в Россию: Заступилась за террористов "Крокуса", осудила СВО, а теперь на красной дорожке в Москве
1-05-2026, 06:00
"Сириус" в Казахстане: совместный проект с Россией вышел за рамки одной школы
30-04-2026, 07:03
Соцсети
Белый Парус в Telegram
Белый Парус на Facebook
Интергласс-Строй
Гороскоп

Гороскоп на неделю 4–10 мая . Какие события наиболее вероятны в ближайшие дни? К чему вам стоит подготовиться? Чего избегать, к чему стремиться? Ответы на эти вопросы вы найдете в еженедельном гороскопе.

Подробнее »


Tehnoinvest
Курс валют НБКР
На 06.05.2026
USD 87,4205
EUR 102,1028
CNY 12,7955
KZT 0,1889
RUB 1,1670