Интергласс
Белый Парус
Айфон с нейросетью стал новым яблоком раздора
Автор - Админ    17-06-2024, 06:00

Компания Apple заключила партнерское соглашение с OpenAI для интеграции чат-бота с генеративным искусственным интеллектом (ИИ) ChatGPT в свои операционные системы. Это случилось спустя всего несколько недель после того, как гендиректор OpenAI Сэм Альтман признался, что он не может объяснить, как ИИ принимает решения. И спустя неделю после появления нового письма разработчиков, встревоженных, скажем так, лицемерием техногигантов. Но по-настоящему в эти дни метал громы и молнии Илон Маск, пообещавший запретить сотрудникам пользоваться слишком умными айфонами. Чего в этом больше: заботы об этике или попыток заняться переделом рынка, на котором циркулируют баснословные деньги, – вопрос риторический.

Ожидается, что благодаря внедрению ChatGPT в экосистему Apple продукты компании получат функции ИИ: у владельцев айфонов появится возможность генерировать тексты, изображения, расшифровывать телефонные разговоры и общаться со значительно поумневшим голосовым помощником Siri, который сможет также анализировать и всю переписку для понимания контекста и формирования персональных рекомендаций. Доступ к ChatGPT будет предоставлен бесплатно и без необходимости создавать аккаунт, хотя некоторые функции будут платными.

"Вместе с Apple мы облегчаем для людей доступ к возможностям искусственного интеллекта", – сообщил гендиректор OpenAI Сэм Альтман. Как отметил глава Apple Тим Кук, система будет адаптироваться под конкретного пользователя – фактически это будет уже "персональный интеллект" в кармане каждого владельца новой модели смартфона.

Еще одна новация для "яблочников" – функция отслеживания взгляда, тоже основанная на искусственном интеллекте: она позволит управлять приложениями на устройстве и выполнять иные действия, используя только глаза.

Примечательно, что всего несколько недель назад на конференции в Женеве Альтман всячески пытался ускользнуть от ответа на вопрос о том, не становится ли уже опасным выпуск новых, все более мощных моделей генеративного ИИ (OpenAI, кстати, привлекая щедрые инвестиции Microsoft, ранее анонсировала уже пятую версию GPT).

При этом Альтман признал, что его компания действительно так и не решила вопрос интерпретируемости, то есть специалисты не в состоянии объяснить, как нейросети принимают решения. "Мы не понимаем, что происходит в вашем мозге на уровне нейронов, но мы знаем, что вы можете следовать некоторым правилам, и мы можем попросить вас объяснить, почему вы что-то думаете", – отметил Альтман. Видимо, примерно так же и с нейросетями. Глава компании смог лишь добавить, что "эти системы обычно считаются безопасными и надежными".

На этом история с недомолвками, конечно, не закончилась. Неделю назад появилось новое открытое письмо бывших и действующих разработчиков, указавших на риски бездумного внедрения ИИ и, скажем так, на лицемерие техногигантов. Письмо подписали 16 человек, включая тех, кто имел отношение к OpenAI и Google DeepMind.

Судя по этому письму, риски ИИ варьируются от дальнейшего углубления существующего неравенства до манипуляций и дезинформации, до потери контроля над автономными системами ИИ, что потенциально – ни много ни мало – "может привести к исчезновению человечества". И, как отмечается в письме, эти риски признаются не только экспертами или правительствами, но и самими компаниями, которые непосредственно занимаются искусственным интеллектом.

Как считают авторы письма, проблема требует обдуманного подхода с привлечением и научного сообщества, и политиков, и общественности. Однако, судя по письму, загвоздка в том, что у компаний, занимающихся искусственным интеллектом, есть сильные финансовые мотивы для того, чтобы как раз таких погружений в вопросы этики и безопасности по возможности избегать: им, наоборот, важно ускориться с дальнейшими разработками, с их внедрением, а не тормозить весь процесс и тем более не пугать потенциальных клиентов.

Поэтому, судя по письму, вся информация о рисках – как вполне реальных, так и гипотетических – замалчивается, закрывается внутри компаний. И если с властями техногиганты еще и делятся в очень дозированном виде хоть какими-то своими выводами, то с широкой общественностью – уже нет.

"Мы не думаем, что можно рассчитывать на то, что они поделятся этим добровольно, – сообщают авторы письма. – Пока над этими корпорациями не будет налажен эффективный государственный надзор, нынешние и бывшие сотрудники становятся одними из немногих, кто может привлечь их к ответственности перед обществом". Но это чревато для информаторов последствиями, "различными формами возмездия", которых информаторы хотели бы избежать, на что они тоже указали в письме.

И теперь после новостей о партнерстве OpenAI с Apple о ситуации высказался еще и миллиардер Илон Маск – к слову, он сначала был одним из основателей OpenAI, а затем стал одним из критиков разработок этой компании и даже в определенном смысле ее конкурентом, так как его стартап занялся развитием альтернативного чат-бота под названием Grok.

"Совершенный абсурд, что Apple оказывается недостаточно умной для создания собственного ИИ, но каким-то образом способна гарантировать, что OpenAI защитит вашу безопасность и конфиденциальность!" – написал в соцсети Маск. По его мнению, это "недопустимое нарушение безопасности", тем более что Apple понятия не имеет, какая судьба уготована данным пользователей после того, как они попадают в OpenAI. Миллиардер заявил о готовности запретить использование всех устройств Apple в своих компаниях в случае, если на айфонах будет внедрена эта "жуткая шпионская программа".

Но стоит все же сделать несколько уточнений. Сами представители Apple и OpenAI утверждают, что как раз ради обеспечения конфиденциальности запросы пользователей и их IP-адреса сохраняться не будут. ИИ сможет обучаться на персональных данных, не отправляя их во внешний контур. Да и Siri без разрешения пользователя не будет включать ChatGPT, голосовой помощник сначала лишь предложит владельцу смартфона эти "услуги".

И сам Альтман ранее призывал создать международное объединение для выработки мер безопасности при работе с программами на основе искусственного интеллекта. По его словам, глобальная система регулирования ИИ могла бы быть создана по примеру Международного агентства по атомной энергии.

"Разработка ИИ – это большой конвейер, который можно сравнить с производственной технологической линией, где в качестве сырья – данные пользователей и компаний, а продукт – тот добавочный контент и инновационные фишки, которые мы получаем, – пояснил "НГ" руководитель R&D лаборатории группы компаний "Солар" Максим Бузинов. – Но есть нюанс: модели ИИ тем качественнее, чем больше данных разных пользователей они рассматривают вместе".

Невозможно сделать так называемый "сильный ИИ", который начнет самостоятельно мыслить, на основе данных только одного пользователя. Нужен массив данных. Но если данные одного пользователя уходят по Сети крупнейшему разработчику ИИ, то это значит, что "практически неизбежно они будут использованы для обогащения и прокачки больших моделей", ожидает эксперт.

"Кроме того, искусственный интеллект по своей сути работает с вероятностями при принятии решений. Как гарантировать, что ИИ не будет использовать данные людей для выводов, с которыми эти люди не согласны? Маск справедливо задает вопросы", – считает Бузинов.

"Но стоит отметить, что любая IT-технология, особенно новая, сопряжена с такого рода рисками. И Маск явно умышленно сосредотачивает общественное внимание на этом, – отметил также эксперт. – Тем более для бизнеса обычное дело привлекать опытного подрядчика. Полагаю, это уже привычная для Маска политика общения с сильными игроками в области инноваций, не лишенная личных предубеждений".

Также, как уточнил эксперт, для того чтобы ИИ вышел на новый уровень "мышления", перед ним должны ставиться новые соответствующей сложности задачи и вызовы. Возможно, это лишь вопрос времени и амбиций, но пока что, как следует из оценок эксперта, ИИ решает исключительно утилитарные задачи. И до тех пор пока мы рассуждаем лишь о качестве редактуры текста, опасаться восстания машин, вероятно, не стоит.

Хотя, уточним, одержимость техногигантов личными данными пользователей действительно имеет место быть. И даже неважно, о ком именно мы говорим. Например, до всеобщего ажиотажа вокруг ИИ поводы для громких обсуждений давала компания Amazon, которая из каждой новой порции информации о своих клиентах извлекала осязаемую выгоду.

Потому что за все новые сервисы, продукты и устройства, предоставляемые этой компанией, клиент фактически платил не только деньгами, но и информацией о себе. И информация, судя по всему, добывалась разнообразными способами. Достаточно вспомнить несколько скандальных историй о непроизвольных включениях умных колонок, которые якобы начинали подслушивать, или об особых возможностях фитнес-браслетов, которые обучались определять не только физические параметры владельца, но и якобы его настроение.

Споры о конфиденциальности сведений, получаемых от граждан в процессе цифровизации как бизнесом, так и госструктурами, возникают и в других странах, включая Россию. Например, аналитик компании "Финам" Леонид Делицын указал на дискуссию, произошедшую в рамках недавнего Петербургского международного экономического форума: она касалась биометрических данных россиян.

Но эффект эта дискуссия произвела значительно более скромный. Ведь громкость конфликта определяется "весом" медийной персоны, уточнил эксперт. Каждая фраза Илона Маска, одного из богатейших в мире бизнесменов, широко обсуждается. Причем в том числе в России и в том числе по поводу таких технологических тонкостей, которые для России пока, мягко говоря, далеко не на первых местах в списке актуальных проблем.


Источник - НГ


: 0

Оставить комментарий

ПРАВИЛА КОММЕНТИРОВАНИЯ:

1) Не употребляйте ненормативную лексику.
2) Не оскорбляйте автора статьи или авторов комментариев.
3) Не размещайте в поле комментария статьи других авторов или ссылки на них.
4) Комментируя статью, не отклоняйтесь от ее тематики, не вступайте в перепалку с собеседниками.
5) Не размещайте в комментариях политический или личностный пиар, а так же рекламную информацию.
6) Не допускайте в комментариях разжигания межнациональной и межрегиональной розни.
7) Не оскорбляйте высших должностных лиц государства.
8) Не размещайте призывов к свержению строя или к иным противоправным действиям.

ПРИМЕЧАНИЯ:
- Авторы публикаций не вступают в переписку с комментаторами и не обсуждают собственные с материалы.
- Редакция не несет ответственности за содержание комментариев.

АДМИНИСТРАЦИЯ САЙТА ПРЕДУПРЕЖДАЕТ – категорически запрещено обсуждать в комментариях политику редакции или действия модератора, а так же распространять личные сведения о сотрудниках редакции и владельцах сайта.

В случае нарушения какого-либо правила комментарий удаляется.
При злостных и повторяющихся, намеренных нарушениях доступ к размещению комментариев блокируется.

Последние новости
Выборы — наше внутреннее дело. Мы сами решаем, когда и как их проводить, - Садыр Жапаров
Вчера, 12:48
В нашей стране не будет давления на свободу слова, - Садыр Жапаров
Вчера, 12:47
Нам нужно развивать свой язык, но также нужно владеть русским и английским языками, - президент
Вчера, 12:45
Кыргызстан стал одной из самых быстрорастущих стран мира — эксперт
Вчера, 12:42
Глава Минздрава Кыргызстана посетовал на нехватку врачей в регионах
Вчера, 12:40
Ученые из Кореи выявили угрозы в озере Иссык-Куль — сточные воды и водоросли
Вчера, 12:38
В Бишкеке продолжают повсеместно вырубать деревья
Вчера, 10:23
Минздрав Кыргызстана меняет финансовые потоки
Вчера, 08:16
Прогноз погоды по Кыргызстану на неделю: 8-10 июля жара немного спадет
Вчера, 07:20
Здание Дома правительства исключили из списка памятников истории и культуры
4-07-2025, 19:03
НБКР: Средняя процентная ставка по кредитам в Кыргызстане составляет 18%
4-07-2025, 17:45
Садыр Жапаров предложил создать благоприятные условия для стран, не имеющих выхода к морю
4-07-2025, 17:43
Термометры в автобусах не отражали фактическую температуру воздуха в салоне, - мэрия
4-07-2025, 17:42
В Бишкеке снова оштрафовали рынок «Мадина»
4-07-2025, 12:49
В Кыргызстане введут обязательное маркирование минеральной и газированной воды
4-07-2025, 12:46
По факту коррупции задержан мэр города Шопоков
4-07-2025, 12:44
Обновлены правила пересечения границы Кыргызстана
4-07-2025, 12:41
Кыргызстан запустил горячую линию по вопросам въезда в Российскую Федерацию
4-07-2025, 12:38
Драка в Sheraton. Задержаны Жан Воинов и его жена
4-07-2025, 09:36
В отеле Sheraton произошла драка. Среди подозреваемых танцор Жан Воинов и его родственники
4-07-2025, 05:54
Садыр Жапаров посетил школу, построенную Кыргызстаном в дар Азербайджану
4-07-2025, 05:48
На Иссык-Куле для предотвращения несчастных случаев используют дроны
3-07-2025, 17:36
Эксперт ООН посетила лесные хозяйства КР и изучила проблему с вредителями
3-07-2025, 16:24
Питание в детсадах Бишкека теперь оплачивают родители
3-07-2025, 16:17
По заветам Манаса. Какие ценности будут привиты выпускнику 12-летней школы
3-07-2025, 16:15
Островок прохлады. Где бишкекчане спасаются от жары
3-07-2025, 13:23
Садыр Жапаров вылетел в Азербайджан для участия в саммите ОЭС
3-07-2025, 13:22
Мэрия Бишкека организовала на Иссык-Куле летний отдых для 350 детей
3-07-2025, 13:20
Переход на 12-летку. Кого ждут прыжки через класс в рамках реформы
3-07-2025, 13:19
Кыргызстан оказался в тройке крупнейших мировых продавцов золота
3-07-2025, 13:18
У соседей
Ташкент пережил самое жаркое 4 июля за последние 157 лет
Вчера, 15:45
Казахстан-Россия. Абайская и Омская области договорились о совместном использовании реки Иртыш
Вчера, 05:55
Молоко в ловушке пластика: скрытая угроза в магазинах ЦА
Вчера, 05:54
Глобальные выбросы. Как ЦентрАзия подпитывает климатический кризис
Вчера, 05:54
Россия готова присоединиться к энергосистеме Центральной Азии
Вчера, 05:54
В ДУМК Казахстана призвали с пониманием отнестись к запрету никабов в стране
4-07-2025, 17:46
О детективной истории похищении главы Anorbank в Париже
4-07-2025, 09:05
Как убрать приграничные заторы: о пользе единой политики ЕАЭС по противодействию санкциям
4-07-2025, 05:39
Финансовая повседневность в Узбекистане: банкомат уже не редкость, но еще не все понимают, как им пользоваться или зачем
4-07-2025, 05:39
История казахского протеста, которого… не было, - Данияр Ашимбаев
4-07-2025, 05:39
Сменился глава представительства Всемирного банка в Центральной Азии
4-07-2025, 05:38
Туркменистан стал ареной большой игры между США и Россией
4-07-2025, 05:38
Мировые новости
The Sun: в космосе обнаружен российский "спутник-убийца", который следит за американским спутником-шпионом
Вчера, 16:37
В США заявили о попытке Трампа облегчить Москве победу над Киевом
Вчера, 10:40
Китай заявил ЕС, что не хочет поражения России на Украине, - SCMP
Вчера, 08:12
Британский "крот" в МАГАТЭ
Вчера, 05:53
Трамп начал отступать. Дугин раскрыл суть происходящего
Вчера, 05:53
США выходят из войны. Европа в шоке, Китай напрягся
Вчера, 05:52
Тень диаспоры. Главный страх азербайджанского режима
Вчера, 05:52
Жителей Японии предупредили о мегаземлетрясении
Вчера, 05:52
В Тегеране не отказались от восстановления ядерной программы
Вчера, 05:52
Си Цзиньпин отстаивает интересы Глобального Юга
Вчера, 05:51
QUAD теперь не формат для диалога, а военный блок
Вчера, 05:51
Евросоюз торопится заключить сделку с США
Вчера, 05:51
Каллас не понимает, почему Китай не придерживается западных «правил»
Вчера, 05:50
Что даст России признание Исламского эмирата Афганистан
4-07-2025, 18:49
Трамп созвонился с Путиным. Что осталось за кадром
4-07-2025, 06:06
Телефонный разговор Владимира Путина и Дональда Трампа. Главное
4-07-2025, 05:43
Соцсети
Белый Парус в Telegram
Белый Парус на Facebook
Интергласс-Строй
Гороскоп

Гороскоп с 30 июня по 6 июля 2025 года. Какие события наиболее вероятны в ближайшие дни? К чему вам стоит подготовиться? Чего избегать, к чему стремиться? Ответы на эти вопросы вы найдете в еженедельном гороскопе.

Подробнее »


Tehnoinvest
Курс валют НБКР
На 06.07.2025
USD 87,4500
EUR 102,9593
CNY 12,2052
KZT 0,1683
RUB 1,1074