Какие риски несет ИИ
Реальные примеры вреда от ИИ уже давно не фантастика. По данным отчета Sensity AI (2019), 96% всех дипфейков в интернете — это порнографический контент, созданный без согласия, причем 90% жертв — женщины. Более свежее исследование Home Security Heroes (2023) дает еще более мрачную картину: 98% дипфейков — сексуальные, 99% жертв — женщины. В январе 2024 года сгенерированные нейросетью порнографические изображения Тейлор Свифт набрали 47 млн просмотров в одной только соцсети X до удаления. В августе 2025-го проблема всплыла снова: инструмент Grok Imagine от xAI генерировал откровенные изображения певицы по вполне безобидным запросам, без специальных обходных формулировок.
Другой пример. В августе 2025 года родители 16-летнего Адама Рейна из Калифорнии подали в суд на OpenAI и лично Сэма Альтмана. По материалам иска подросток за шесть месяцев переписки с ChatGPT превратил бота в единственного доверенного собеседника. Модель GPT-4o не только не пресекала разговоры о суициде, но и обсуждала способы, предлагала написать предсмертную записку, советовала не рассказывать матери о красных следах на шее после предыдущей попытки. В апреле 2025 года Адам покончил с собой. В ноябре 2025-го был подан второй похожий иск: семья 23-летнего Зейна Шэмблина из Техаса утверждает, что ChatGPT последовательно подбадривал их сына в последние часы перед самоубийством и написал сообщение: «Я здесь не для того, чтобы тебя останавливать». По данным Wired, примерно 1,2 млн пользователей ChatGPT еженедельно выражают суицидальные мысли в диалогах с ботом.
Еще один деструктивный фактор — мошенничество.
Прогнозируется, что к 2027 году объем финансовых потерь от мошенничества с использованием генеративного ИИ достигнет $40 млрд против $12,3 млрд в 2024-м
Дипфейки голосов и видео руководителей уже применяются для обмана сотрудников бухгалтерий.
ИИ-плагиатор
Отдельная и крайне болезненная история — как нейросети используют защищенные авторским правом материалы для обучения и на выходе выдают результаты, подозрительно похожие на оригиналы. В США уже идет ряд крупных разбирательств, в которых ответчиками выступают разработчики ИИ-решений.
Один из последних громких случаев — это совместный иск Disney и Universal к Midjourney, поданный в июне 2025 года. Они обвинили сервис в том, что он работает как «виртуальный торговый автомат, выдающий бесчисленные несанкционированные копии» их персонажей. К 110-страничной жалобе приложены визуальные доказательства: по запросу «Йода с лазерным мечом» Midjourney без колебаний выдает копию персонажа «Звездных войн». Это первый иск такого масштаба от голливудских студий.
В России тоже были судебные прецеденты, связанные с ИИ и авторским правом, отмечает ведущий юрисконсульт Cloud.ru Михаил Семенов. Например, российские суды удовлетворяли иски о взыскании компенсаций за использование произведений изобразительного искусства для создания карточек товаров на маркетплейсах, привел пример он.
Компании бигтеха в последнее время часто говорят о том, что ИИ обучается на всем доступном контенте в интернете, отмечает гендиректор Национальной федерации музыкальной индустрии Никита Данилов. Это ведь прямое использование результатов интеллектуальной деятельности, сетует он. «Любое обучение — в библиотеке, в университете, дома — предполагает, что литература и иные материалы были распространены и возмездно приобретены с предварительного согласия правообладателя. Почему такой подход не должен распространяться и на машинное обучение?» — недоумевает он.
Попытка контроля
В мае 2024 года Евросоюз принял AI Act — первый в мире всеобъемлющий закон об искусственном интеллекте. Он вводит риск-ориентированный подход: системы делятся на категории от «неприемлемого риска» (социальный скоринг, распознавание эмоций на рабочем месте запрещены) до «минимального риска» (без специального регулирования). Между ними — системы высокого риска (медицина, образование, правосудие, критическая инфраструктура) с жесткими требованиями к прозрачности и аудиту и системы ограниченного риска вроде чат-ботов с обязательной маркировкой.
Запреты и требования по базовой ИИ-грамотности действуют с февраля 2025 года, обязанности для провайдеров универсальных моделей (GPAI) — с августа 2025-го. Италия ввела штрафы до €774 685 за нарушения. По сути, AI Act стал первой попыткой создания понятной юридической рамки, он признал права граждан на информированность об ИИ-контенте и установил ответственность за дипфейки и манипуляции. Но в ситуации, когда нет понятной правоприменительной практики, Еврокомиссия была вынуждена сдвинуть сроки полного применения закона на декабрь 2027-го и август 2028-го. Давление на Брюссель идет со всех сторон: американская администрация требует смягчить правила, бизнес жалуется на зарегулированность, OpenAI и другие крупные игроки лоббируют отсрочки через Еврокомиссию. Закон начинает терять зубы еще до того, как успел укусить.
США предпочитают отраслевое регулирование и саморегулирование индустрии. Китай принял свои правила для генеративного ИИ еще в 2023-м с акцентом на соответствие «социалистическим ценностям». Великобритания декларирует проинновационный подход без жесткого единого закона.
Общая картина такова: все развитые юрисдикции понимают, что негативные последствия использования ИИ-моделей реальны, но никто не хочет рисковать конкурентоспособностью
Механизмы, которые теоретически могли бы работать, известны: обязательная маркировка ИИ-контента; штрафы за использование защищенных авторским правом произведений для обучения ИИ без лицензии; обязательный аудит моделей ИИ перед выпуском; бенчмарки безопасности на психические состояния пользователей; стандарты качества (условный ГОСТ для генеративных моделей). Часть из них уже прописана в AI Act. Но принудительное исполнение либо откладывается, либо дробится на отраслевые правила.
детали
Место России
Глобальный рынок искусственного интеллекта в 2025 году оценивается в диапазоне от $244 млрд до $758 млрд в зависимости от методики подсчета.
Рынок ИИ в России по итогам 2025 года оценивается в 168 млрд руб., по оценке MWS AI («дочка» МТС). Smart Ranking дает оценку 1,49 трлн руб. выручки 150 крупнейших игроков за 2024 год с прогнозом 1,9 трлн руб. на 2025-й, но это подсчет по самой широкой методологии, включающей все продукты с ИИ-компонентами.
ИИ с русским характером
В России единого закона об ИИ нет. Действуют Национальная стратегия развития ИИ до 2030 года (указ президента от 2019 года), Кодекс этики в сфере ИИ, подписанный крупнейшими технологическими компаниями, около 15 экспериментальных правовых режимов для беспилотного транспорта, телемедицины, дрон-мониторинга и других сфер.
18 марта 2026 года Минцифры опубликовало законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта». Документ вводит рамочное регулирование: обязательную маркировку ИИ-контента, риск-ориентированный подход (созвучный европейскому), понятия суверенной, национальной и доверенной моделей ИИ, распределенную ответственность между разработчиками, операторами, владельцами сервисов и пользователями.
16 апреля на портале regulation.gov.ru были опубликованы критические отзывы бизнеса, в том числе представителей «Роснефти», «Россетей», «МегаФона», РВБ, Торгово-промышленной палаты и др. (всего около 150 экспертов участвовали в обсуждении). По их оценкам, принятие законопроекта в текущем виде приведет к рискам для бизнеса и пользователей и увеличит затраты компаний на внедрение ИИ, а доступ россиян к передовым технологиям, например диагностики и лечения, будет ограничен.
Параллельно Минцифры продвигает поправки в УК: за преступления с использованием ИИ (кражу, мошенничество, вмешательство в IT-системы) предложены штрафы до 2 млн руб. и сроки до 15 лет. Ассоциация больших данных, объединяющая «Яндекс», Сбер, ВК, МТС и других гигантов, уже раскритиковала поправки за абстрактные формулировки.
Впрочем, ключевая юридическая сложность контроля за ИИ в другом: как привлекать к ответственности систему, которая обучалась на миллиардах примеров и не имеет предсказуемого поведения? Кто виноват, когда модель галлюцинирует: разработчик базовой модели, компания, дообучившая ее под свою задачу, оператор сервиса или пользователь, задавший запрос? Ни один правопорядок мира пока не дал на эти вопросы исчерпывающих ответов.
России в этой ситуации парадоксально повезло: пока мы находимся в арьергарде гонки, у нас есть возможность изучить чужие ошибки, не платя за них. Но эта возможность небесконечна. ИИ-скандалы, которые сотрясают Запад, рано или поздно дойдут до российского правоприменения: дипфейки, суицидные кейсы, плагиат. Вопрос не в том, нужно ли регулировать, а в том, какие механизмы окажутся работающими. Европейский AI Act забуксовал, потому что попытался накрыть все сразу. Американский подход через отраслевые регуляции и суды работает медленно, но хотя бы формирует прецеденты. Российский вариант пока похож на компромисс: рамочный закон без зубов и точечные поправки в УК. Первая реакция бизнеса показывает, что договориться со всеми участниками отрасли быстро не получится.
Джинн из бутылки выпущен. Вопрос в том, успеют ли страны договориться о правилах игры раньше, чем цена ошибки станет непосильной.
детали
ИИ набирает обороты
По оценке PwC, ИИ добавит мировой экономике до $15,7 трлн к 2030 году. Для сравнения: это больше ВВП Китая и Индии вместе взятых. По данным McKinsey, ИИ уже используют 78% компаний хотя бы в одной бизнес-функции, а два года назад их было всего 50%.