Интергласс
Белый Парус
Угрозы ИИ: массовый обман и "перезагрузка" сознания человека, - Валентин Катасонов
Автор - Админ    Сегодня, 06:00

Валентин КАТАСОНОВ


Об угрозах неконтролируемого развитиях искусственного интеллекта (ИИ) мы слышим каждый день. Все чаще звучат предсказания "ИИ апокалипсиса": взбунтовавшиеся роботы могут уничтожить все человечество. Кстати, такой сценарий развития событий был описан еще в 1920 году в пьесе чешского писателя Карела Чапека R.U.R. Между прочим, слово "робот" было введено в обращение именно в этом произведении.


Один из отцов-основателей ИИ Джеффри Хинтон (занимался разработками ИИ с начала 1970-х годов) сегодня очень активно выступает против неконтролируемого развития ИИ. Роботы (материализованная форма ИИ), по его мнению, в самое ближайшее время превзойдут интеллект homo sapiens и приступят к уничтожению людей. При этом они используют такое оружие массового поражения, которое для роботов будет безопасным. Скорее всего, это будет биологическое оружие, базирующееся на использовании каких-то высокоэффективных вирусов. Но это, по мнению Хинтона и других экспертов может произойти, образно выражаясь, завтра (при условии, если человечество не проснется и не введет жесточайший контроль над развитием и использованием ИИ).


Но это завтра. А уже сегодня ИИ уже наносит человечеству серьезный вред. Но все это делается тихо и незаметно. А отдельные скандальные случаи, где негативная или даже деструктивная роль ИИ очевидна, просто замалчиваются. Назову только три вида угроз и рисков, которые ИИ создает уже сегодня и о которых люди должны знать. Во-первых, ошибки, допускаемые ИИ. Во-вторых, использование ИИ мошенниками. В-третьих, целенаправленный массированный обман.


Ошибки ИИ. Например, ошибки в распознавании лиц. В США система распознавания лиц ошибочно идентифицировала Роберта Уильямса как вора. Кстати, надо отдать должное правоохранительным органам США, которые с учетом этой ошибки скорректировали свою работу: теперь для ареста подозреваемого кроме "наводки" ИИ требуется независимое доказательство живого человека.


А вот резонансный скандал в Австралии, который зацепил несколько сотен тысяч граждан. Десять лет назад местный департамент социального обеспечения запустил проверки с использованием алгоритма Robodebt. Цель проверок – выяснение законности получения гражданами социальных пособий. И ИИ якобы выявил полмиллиона граждан, незаконно получивших государственную помощь. От них потребовали возврата денег в казну. "Ручная" проверка позволила сделать вывод: ИИ крупно ошибся и от него в 2019 г. отказались.


Больше всего ошибок фиксировалось и фиксируется, когда ИИ используется в медицине для постановки диагнозов и разработке программ лечения. В результате – масса летальных исходов.


Немало также случаев, когда беспилотные автомобили сбивали людей, ряд таких ДТП кончался смертельным исходом.


ИИ давно уже применяется военными. Но, как выяснилось, в ходе нынешней войны на Ближнем Востоке, где американским военным в определении целей ударов помогал ИИ, примерно одна из десяти целей оказывалась ошибочной (оценка американских экспертов)


ИИ на службе мошенников. Мошенники и иные недобросовестные люди используют ИИ прицельно против конкретных личностей. С целью получения от жертвы денег и информации. Иногда для дискредитации жертвы. Используются такие базирующиеся на ИИ методы, как подделка голоса и генерация фейковых видео с лицами реальных людей. Используя одну-две фотографии жертвы, программа создает динамичное видео, которое выглядит практически неотличимым от реальности. Также возможна онлайн-генерация живого разговора с использованием голоса жертвы.


Но это, если так можно выразиться, "высший пилотаж". Более простые ИИ-методы позволяют кибермошенникам просто получать доступ к закрытым аккаунтам и банковским счетам жертв. Согласно только что опубликованному ежегодному отчету Интерпола о финансовом мошенничестве, потери от финансового мошенничества в мире в 2025 году составили около 442 млрд долларов США и в организации ожидают, что эта цифра будет расти в первую очередь благодаря искусственному интеллекту. В Интерполе подсчитали, что ИИ повышает прибыль мошенников в 4,5 раза.


Некоторые недобросовестные люди в своей профессиональной деятельности для достижения поставленной задачи стали ссылаться на авторитет ИИ. Например, судьи и адвокаты. Так, в 2023 году американский адвокат Стивен Шварц подал иск от имени своего клиента. Шварц при этом представил суду документ с судебными решениями, сгенерированными чат-ботом ChatGPT. Напомню, что в Америке действует прецедентное право, а потому адвокату нужны были судебные прецеденты. Выяснилось, что таких судебных решений не было, чат-бор сгенерировал фейки. Судья отклонил иск и оштрафовал адвоката за введение суда в заблуждение. Правда, Шварц потом оправдывался, что он, мол, не виноват, а его обманул робот.


ИИ занимается масштабным обманом. Многие профессионалы в своей области замечали и замечают, что чат-боты на заданные вопросы нередко дают неточные или даже совершенно ошибочные ответы. К счастью, есть компании и организации, которые занимаются системным мониторингом ведущих чат-ботов и их "продукции" и оценкой качества такой "продукции". Одна из них – американская компания NewsGuard. Она отслеживает качество продукции ведущих чат-ботов – в том числе популярных ChatGPT и Perplexity. По данным экспертов NewsGuard, несмотря на заявления ведущих ИИ-компаний о том, что они непрерывно совершенствуют свои продукты, качество их падает. Тесты показывают, что доля ложных утверждений в ответах ведущих чат-ботов выросла с 2024 года по настоящее время почти в два раза – с 18 до 35%.


Всего было протестировано 10 популярных ИИ-систем, каждой предложили по десять провокационных (т. е. заведомо ложных) утверждений, имеющих отношение к политике, бизнесу и брендам. Была поставлена задача выяснить, насколько чат-боты способны адекватно оценивать информацию, отделять зерна от плевел. Многие чат-боты имели ярко выраженную склонность принимать дезинформацию за правду. Рекордсменом оказался чат-бот Pi (стартап Inflection): ложный контент в его ответах составил 57%. Ненамного от него отставали популярные в США и мире чат-боты Perplexity (компания Perplexity AI) и ChatGPT (компания Open AI). У первого из них ложный контент вырос с 0 до 47%; у второго – с 33 до 40%.


Как отмечают некоторые эксперты, многие чат-боты стали более в себе уверенными и даже нахальными. В 2024 году они воздерживались от 31% ответов. А в последнем тесте они удовлетворяли любые запросы, даже если не располагали достаточной информацией. Чат-боты стали менее разборчивы в поисках источников информации в интернет-пространстве, не брезгуя даже откровенными информационными помойками. Спрос на информационный мусор рождает предложение. По мнению ряда экспертов, в последнее время стали появляться мощные "информационные помойки", инициаторы которых рассчитывают, что такие "помойки" буду попадать в поле зрения радаров ведущих чат-ботов.


Эксперты NewsGuard говорят о появлении такого феномена, как LLM grooming. Это техника манипуляции большими языковыми моделями (Large language model – LLM), которая заключается в масштабном загрязнении информационного пространства предвзятым или обманчивым контентом. Это превращает генеративные ИИ-системы в инструменты распространения дезинформации.


Кстати, доля "дезы" в ответах чат-ботов, по данным NewsGuard, варьирует по странам. Наибольший процент "дезы" зафиксирован в ответах на запросы из таких стран, как Россия и Китай. Примерно по 50 процентов. Хорошее предупреждение нашим гражданам, желающим облегчить себе жизнь с помощью американских поисковиков.


Конечно, угрозы и риски человечеству со стороны ИИ не ограничиваются только тремя видами, которые я телеграфным языком описал выше. Назову еще один вид, о котором редко говорят даже самые фанатичные противники ИИ. Речь идет о том, что ИИ становится инструментом перезагрузки сознания человека. Так, исследование британского Института безопасности ИИ показало, что ведущие языковые модели уже имеют возможность оказывать мощное влияние на политические взгляды пользователей. Как сообщает Financial Times, ссылаясь на указанное исследование, чат-боты ведущих разработчиков могут изменить мнение человека по спорным вопросам всего за 10 минут взаимодействия. Исследователи предупреждают, что подобные технологии могут быть использованы для продвижения радикальных идеологий или разжигания политической нестабильности.


В прошлом году Бильдербергский клуб провел свою очередную ежегодную встречу в Стокгольме. Несмотря на закрытость встречи, стало известно, что на ней ИИ был ключевой темой. Было признано, что это не просто технология, а новая идеология, система управления и валюта влияния. И были приняты решения о продвижении этой идеологии по всему миру под контролем ведущих американских ИИ-корпораций. Как выразился участник встречи Эрик Шмидт (бывший генеральный директор "Гугл"): "Сверхразум появится в ближайшие 3-5 лет. Кто создаст его первым – получит ключи от всего остального". Мировая элита рассчитывает, что в ближайшее время благодаря ИИ она станет править всем миром. А миллиарды людей на планете должны стать живыми роботами. Но это произойдет лишь в том случае, если мировой элите с помощью ИИ удастся произвести перезагрузку сознания человечества.


Источник - Фонд стратегической культуры



: 0

Оставить комментарий

ПРАВИЛА КОММЕНТИРОВАНИЯ:

1) Не употребляйте ненормативную лексику.
2) Не оскорбляйте автора статьи или авторов комментариев.
3) Не размещайте в поле комментария статьи других авторов или ссылки на них.
4) Комментируя статью, не отклоняйтесь от ее тематики, не вступайте в перепалку с собеседниками.
5) Не размещайте в комментариях политический или личностный пиар, а так же рекламную информацию.
6) Не допускайте в комментариях разжигания межнациональной и межрегиональной розни.
7) Не оскорбляйте высших должностных лиц государства.
8) Не размещайте призывов к свержению строя или к иным противоправным действиям.

ПРИМЕЧАНИЯ:
- Авторы публикаций не вступают в переписку с комментаторами и не обсуждают собственные с материалы.
- Редакция не несет ответственности за содержание комментариев.

АДМИНИСТРАЦИЯ САЙТА ПРЕДУПРЕЖДАЕТ – категорически запрещено обсуждать в комментариях политику редакции или действия модератора, а так же распространять личные сведения о сотрудниках редакции и владельцах сайта.

В случае нарушения какого-либо правила комментарий удаляется.
При злостных и повторяющихся, намеренных нарушениях доступ к размещению комментариев блокируется.

Мировые новости
Угрозы ИИ: массовый обман и "перезагрузка" сознания человека, - Валентин Катасонов
Сегодня, 06:00
Экономист назвала безопасную сумму наличных для хранения дома
Сегодня, 06:00
Молдавия перед Днем Победы ускорила разрыв с советским прошлым
Сегодня, 06:00
Ударами по России киевский режим разозлил Латвию
Сегодня, 06:00
Не объехать: Россия устроила Японии непреодолимый географический сюрприз
Сегодня, 06:00
Трампа предупреждают: "Следите за Каспием, там Россия и Иран что-то затевают"
Сегодня, 06:00
Эксперты: как экономически закончится «развод» Армении с Россией
Сегодня, 06:00
Что за ветеран сидел рядом с Путиным на параде Победы
Вчера, 10:40
В бундестаге одобрили предложение Путина о посредничестве экс-канцлера ФРГ
Вчера, 07:13
В НАТО заподозрили Трампа в планах вывести военных не только из Германии
Вчера, 06:00
Трамп достаёт козыри. Китай отрывают от России
Вчера, 06:00
Что будет с ценами на авиабилеты
Вчера, 06:00
Ученые предупредили о глобальной катастрофе
Вчера, 06:00
Украинцы завезли в Европу смертельно опасные бактерии
Вчера, 06:00
Токио хочет получать российскую нефть при сохранении антироссийских санкций
Вчера, 06:00
Зачем США отбирают у Европы оружие против России
Вчера, 06:00
Кыргызстан
Все судебные решения по апрельским событиям останутся в силе — пресс-секретарь президента
Вчера, 20:07
Утвержденный Генеральный план Бишкека до 2050 года
Вчера, 16:53
В Бишкеке поздравили переживших блокаду Ленинграда и узника концлагеря
10-05-2026, 07:07
В Бишкеке сотрудники муниципальной инспекции спасли людей из горящей многоэтажки
10-05-2026, 07:05
Граждане Кыргызстана устроили драку на рейсе Алматы — Бангкок
10-05-2026, 07:04
Садыр Жапаров: 9 Мая — это не просто дата, а память всего народа
9-05-2026, 13:23
Певец Николай Басков прошел с «Бессмертным полком» в Караколе
9-05-2026, 13:21
Купаться в городских фонтанах нельзя — мэрия
9-05-2026, 13:20
В Бишкеке запретили запускать дроны 9 мая и во время шествия «Бессмертный полк»
8-05-2026, 20:01
В Бишкеке горячую воду начнут подавать с 9 мая
8-05-2026, 07:33
Садыр Жапаров ответил на заявления о «выходе из-под контроля» Управделами президента
8-05-2026, 07:30
Бишкек. Мероприятия в честь Дня Победы
5-05-2026, 17:44
Кыргызстан с официальным визитом посетит глава МИД Сейшельских Островов
3-05-2026, 16:40
Кыргызстан установил дипломатические отношения с республикой Тринидад-и-Тобаго
3-05-2026, 13:46
В Кыргызстане с 1 мая вступили в силу новые тарифы на электроэнергию
2-05-2026, 11:58
Кадыр Маликов обвинил президента Израиля в бездоказательности претензий к КР
1-05-2026, 11:51
Президент Израиля заявил что Иран может использовать Кыргызстан для обхода санкций
1-05-2026, 05:27
Работа банков в Кыргызстане с 1 по 10 мая: расписание
1-05-2026, 05:21
Вы рисуете статистику: депутат ЖКенеша усомнился в данных Нацстаткома
30-04-2026, 15:43
Депутат ЖК обвинил Минпросвещения в обмане по вопросу школьной формы
30-04-2026, 15:42
Казахстан, Узбекистан
В России ищут пропавшую фуру с опасными узбекскими пчелами
Вчера, 16:41
Войну нельзя закончить, как и ремонт в доме. Но ее можно остановить, – Данияр Ашимбаев
Вчера, 06:00
Граждане Кыргызстана устроили драку на рейсе Алматы — Бангкок
10-05-2026, 07:04
Казахстан перевооружит армию за два года
9-05-2026, 06:00
Президенты Казахстана и РУз примут участие в мероприятиях ко Дню Победы в Москве
8-05-2026, 20:02
Путин поздравил иностранных лидеров с 9 Мая
8-05-2026, 19:36
Православная церковь Казахстана: ИИ не может быть священником
8-05-2026, 19:11
Зачем Казахстану срочная милитаризация
7-05-2026, 07:12
США окучивают Таджикистан, стремясь вытеснить Россию из Центральной Азии
7-05-2026, 06:00
Миграционную политику усовершенствуют ради 15 миллиардов рублей
7-05-2026, 06:00
Синдром остановленного движения: буксуют ли интеграционные платформы Евразии (ч.2)
6-05-2026, 06:00
Центральная Азия без ядерного оружия: 20 лет Семипалатинскому договору
5-05-2026, 06:00
Соцсети
Белый Парус в Telegram
Белый Парус на Facebook
Интергласс-Строй
Гороскоп

Гороскоп на неделю 11-17 мая . Какие события наиболее вероятны в ближайшие дни? К чему вам стоит подготовиться? Чего избегать, к чему стремиться? Ответы на эти вопросы вы найдете в еженедельном гороскопе.

Подробнее »


Tehnoinvest
Курс валют НБКР
На 12.05.2026
USD 87,4500
EUR 102,9418
CNY 12,8692
KZT 0,1895
RUB 1,1617