beta.expert.ru — Новый «Эксперт»: загляните в будущее сайта
Интервью

ИИ шагает по планете

Кто отвечает за джинна, которого выпустили из бутылки

ИИ шагает по планете
Коллаж: «Эксперт»
Негативные побочные эффекты генеративного искусственного интеллекта (ИИ) копятся быстрее, чем регуляторы успевают их осмысливать. Подростки доводят себя до самоубийства в многочасовых разговорах с чат-ботами. Поп-звезд и школьниц превращают в порнозвезд одним запросом в нейросеть. Мошенники подделывают голоса родственников и обирают не только пенсионеров и студентов, но и взрослых. Казалось бы, пора регулировать. Но ни одна страна не спешит закручивать гайки всерьез: жесткое регулирование сегодня означает отставание завтра, а в гонке, где на кону стоит превосходство в экономике, обороне и разведке, никто не готов уступить первенство из-за защиты моральных устоев. Вопрос в том, можно ли найти баланс и каким он должен быть.

Какие риски несет ИИ

Реальные примеры вреда от ИИ уже давно не фантастика. По данным отчета Sensity AI (2019), 96% всех дипфейков в интернете — это порнографический контент, созданный без согласия, причем 90% жертв — женщины. Более свежее исследование Home Security Heroes (2023) дает еще более мрачную картину: 98% дипфейков — сексуальные, 99% жертв — женщины. В январе 2024 года сгенерированные нейросетью порнографические изображения Тейлор Свифт набрали 47 млн просмотров в одной только соцсети X до удаления. В августе 2025-го проблема всплыла снова: инструмент Grok Imagine от xAI генерировал откровенные изображения певицы по вполне безобидным запросам, без специальных обходных формулировок.

Другой пример. В августе 2025 года родители 16-летнего Адама Рейна из Калифорнии подали в суд на OpenAI и лично Сэма Альтмана. По материалам иска подросток за шесть месяцев переписки с ChatGPT превратил бота в единственного доверенного собеседника. Модель GPT-4o не только не пресекала разговоры о суициде, но и обсуждала способы, предлагала написать предсмертную записку, советовала не рассказывать матери о красных следах на шее после предыдущей попытки. В апреле 2025 года Адам покончил с собой. В ноябре 2025-го был подан второй похожий иск: семья 23-летнего Зейна Шэмблина из Техаса утверждает, что ChatGPT последовательно подбадривал их сына в последние часы перед самоубийством и написал сообщение: «Я здесь не для того, чтобы тебя останавливать». По данным Wired, примерно 1,2 млн пользователей ChatGPT еженедельно выражают суицидальные мысли в диалогах с ботом.

Еще один деструктивный фактор — мошенничество.

Прогнозируется, что к 2027 году объем финансовых потерь от мошенничества с использованием генеративного ИИ достигнет $40 млрд против $12,3 млрд в 2024-м

Дипфейки голосов и видео руководителей уже применяются для обмана сотрудников бухгалтерий.

ИИ-плагиатор

Отдельная и крайне болезненная история — как нейросети используют защищенные авторским правом материалы для обучения и на выходе выдают результаты, подозрительно похожие на оригиналы. В США уже идет ряд крупных разбирательств, в которых ответчиками выступают разработчики ИИ-решений.

Один из последних громких случаев — это совместный иск Disney и Universal к Midjourney, поданный в июне 2025 года. Они обвинили сервис в том, что он работает как «виртуальный торговый автомат, выдающий бесчисленные несанкционированные копии» их персонажей. К 110-страничной жалобе приложены визуальные доказательства: по запросу «Йода с лазерным мечом» Midjourney без колебаний выдает копию персонажа «Звездных войн». Это первый иск такого масштаба от голливудских студий.

В России тоже были судебные прецеденты, связанные с ИИ и авторским правом, отмечает ведущий юрисконсульт Cloud.ru Михаил Семенов. Например, российские суды удовлетворяли иски о взыскании компенсаций за использование произведений изобразительного искусства для создания карточек товаров на маркетплейсах, привел пример он.

Компании бигтеха в последнее время часто говорят о том, что ИИ обучается на всем доступном контенте в интернете, отмечает гендиректор Национальной федерации музыкальной индустрии Никита Данилов. Это ведь прямое использование результатов интеллектуальной деятельности, сетует он. «Любое обучение — в библиотеке, в университете, дома — предполагает, что литература и иные материалы были распространены и возмездно приобретены с предварительного согласия правообладателя. Почему такой подход не должен распространяться и на машинное обучение?» — недоумевает он.

Попытка контроля

В мае 2024 года Евросоюз принял AI Act — первый в мире всеобъемлющий закон об искусственном интеллекте. Он вводит риск-ориентированный подход: системы делятся на категории от «неприемлемого риска» (социальный скоринг, распознавание эмоций на рабочем месте запрещены) до «минимального риска» (без специального регулирования). Между ними — системы высокого риска (медицина, образование, правосудие, критическая инфраструктура) с жесткими требованиями к прозрачности и аудиту и системы ограниченного риска вроде чат-ботов с обязательной маркировкой.

Запреты и требования по базовой ИИ-грамотности действуют с февраля 2025 года, обязанности для провайдеров универсальных моделей (GPAI) — с августа 2025-го. Италия ввела штрафы до €774 685 за нарушения. По сути, AI Act стал первой попыткой создания понятной юридической рамки, он признал права граждан на информированность об ИИ-контенте и установил ответственность за дипфейки и манипуляции. Но в ситуации, когда нет понятной правоприменительной практики, Еврокомиссия была вынуждена сдвинуть сроки полного применения закона на декабрь 2027-го и август 2028-го. Давление на Брюссель идет со всех сторон: американская администрация требует смягчить правила, бизнес жалуется на зарегулированность, OpenAI и другие крупные игроки лоббируют отсрочки через Еврокомиссию. Закон начинает терять зубы еще до того, как успел укусить.

США предпочитают отраслевое регулирование и саморегулирование индустрии. Китай принял свои правила для генеративного ИИ еще в 2023-м с акцентом на соответствие «социалистическим ценностям». Великобритания декларирует проинновационный подход без жесткого единого закона.

Общая картина такова: все развитые юрисдикции понимают, что негативные последствия использования ИИ-моделей реальны, но никто не хочет рисковать конкурентоспособностью

Механизмы, которые теоретически могли бы работать, известны: обязательная маркировка ИИ-контента; штрафы за использование защищенных авторским правом произведений для обучения ИИ без лицензии; обязательный аудит моделей ИИ перед выпуском; бенчмарки безопасности на психические состояния пользователей; стандарты качества (условный ГОСТ для генеративных моделей). Часть из них уже прописана в AI Act. Но принудительное исполнение либо откладывается, либо дробится на отраслевые правила.

детали

Место России

Глобальный рынок искусственного интеллекта в 2025 году оценивается в диапазоне от $244 млрд до $758 млрд в зависимости от методики подсчета.

Рынок ИИ в России по итогам 2025 года оценивается в 168 млрд руб., по оценке MWS AI («дочка» МТС). Smart Ranking дает оценку 1,49 трлн руб. выручки 150 крупнейших игроков за 2024 год с прогнозом 1,9 трлн руб. на 2025-й, но это подсчет по самой широкой методологии, включающей все продукты с ИИ-компонентами.

ИИ с русским характером

В России единого закона об ИИ нет. Действуют Национальная стратегия развития ИИ до 2030 года (указ президента от 2019 года), Кодекс этики в сфере ИИ, подписанный крупнейшими технологическими компаниями, около 15 экспериментальных правовых режимов для беспилотного транспорта, телемедицины, дрон-мониторинга и других сфер.

18 марта 2026 года Минцифры опубликовало законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта». Документ вводит рамочное регулирование: обязательную маркировку ИИ-контента, риск-ориентированный подход (созвучный европейскому), понятия суверенной, национальной и доверенной моделей ИИ, распределенную ответственность между разработчиками, операторами, владельцами сервисов и пользователями.

16 апреля на портале regulation.gov.ru были опубликованы критические отзывы бизнеса, в том числе представителей «Роснефти», «Россетей», «МегаФона», РВБ, Торгово-промышленной палаты и др. (всего около 150 экспертов участвовали в обсуждении). По их оценкам, принятие законопроекта в текущем виде приведет к рискам для бизнеса и пользователей и увеличит затраты компаний на внедрение ИИ, а доступ россиян к передовым технологиям, например диагностики и лечения, будет ограничен.

Параллельно Минцифры продвигает поправки в УК: за преступления с использованием ИИ (кражу, мошенничество, вмешательство в IT-системы) предложены штрафы до 2 млн руб. и сроки до 15 лет. Ассоциация больших данных, объединяющая «Яндекс», Сбер, ВК, МТС и других гигантов, уже раскритиковала поправки за абстрактные формулировки.

Впрочем, ключевая юридическая сложность контроля за ИИ в другом: как привлекать к ответственности систему, которая обучалась на миллиардах примеров и не имеет предсказуемого поведения? Кто виноват, когда модель галлюцинирует: разработчик базовой модели, компания, дообучившая ее под свою задачу, оператор сервиса или пользователь, задавший запрос? Ни один правопорядок мира пока не дал на эти вопросы исчерпывающих ответов.

России в этой ситуации парадоксально повезло: пока мы находимся в арьергарде гонки, у нас есть возможность изучить чужие ошибки, не платя за них. Но эта возможность небесконечна. ИИ-скандалы, которые сотрясают Запад, рано или поздно дойдут до российского правоприменения: дипфейки, суицидные кейсы, плагиат. Вопрос не в том, нужно ли регулировать, а в том, какие механизмы окажутся работающими. Европейский AI Act забуксовал, потому что попытался накрыть все сразу. Американский подход через отраслевые регуляции и суды работает медленно, но хотя бы формирует прецеденты. Российский вариант пока похож на компромисс: рамочный закон без зубов и точечные поправки в УК. Первая реакция бизнеса показывает, что договориться со всеми участниками отрасли быстро не получится.

Джинн из бутылки выпущен. Вопрос в том, успеют ли страны договориться о правилах игры раньше, чем цена ошибки станет непосильной.

детали

ИИ набирает обороты

По оценке PwC, ИИ добавит мировой экономике до $15,7 трлн к 2030 году. Для сравнения: это больше ВВП Китая и Индии вместе взятых. По данным McKinsey, ИИ уже используют 78% компаний хотя бы в одной бизнес-функции, а два года назад их было всего 50%.

Больше новостей читайте в наших каналах в Max и Telegram

Материалы по теме:
Технологии, 23 мар 16:50
Стоит ли немедленно вкладываться в ИИ-стартапы
Технологии, 13 мар 17:45
Место России в ключевых направлениях мировой экономики
Технологии, 11 мар 10:00
В нерегулируемом развитии ИИ есть «предчувствие Апокалипсиса»
Технологии, 4 мар 14:00
Как будет развиваться экономика искусственного интеллекта в зависимости от принимаемых сейчас правил
Свежие материалы
Чемодан — вокзал — отель
РЖД ищут партнера для создания привокзальных гостиниц
Грузы пошли кружным путем
Транспорт,
Кто выиграет и кто проиграет от удлинения морских маршрутов
Какие существуют возможности для начинающих актеров
Культура,
Сезон кинофестивалей в России открыт