Интервью

Интеллект идет на пользу

К 2028 г. экономический потенциал генеративного ИИ в России может достичь 0,8–1,3 трлн руб.

Интеллект идет на пользу
Фото: Freepik
Россия — одна из самых благоприятных стран для развития технологии искусственного интеллекта (ИИ), но ей следует учесть возможные риски в этой сфере и изучить международную практику их преодоления. Таковы выводы исследования компании «Яков и Партнёры» и Альянса в сфере искусственного интеллекта «Регулирование генеративного ИИ: правовой анализ и риски для РФ». Способом снижения рисков, как и во многих странах, может стать механизм саморегулирования для компаний, работающих с ИИ. Он позволяет сохранять баланс между строгостью правил и широтой возможностей для развития технологии.

Генеративный искусственный интеллект (ГИИ) — это разновидность ИИ на базе больших языковых моделей, позволяющих создавать новые данные на основе информации, которая использовалась для их обучения. К таким моделям относятся, в частности, GPT-4 (OpenAI), Llama 3 (Meta, признана в РФ экстремистской организацией и запрещена), YandexGPT («Яндекс»), GigaChat (Сбер). Генеративный ИИ (ГИИ) может создавать текст, программный код, высококачественные изображения, а также короткие видео.

Как сам ГИИ, так и сервисы на его основе развиваются беспрецедентно высокими темпами, констатируют авторы исследования, которые полагают, что к 2028 г. экономический потенциал генеративного ИИ в России может достичь 0,8–1,3 трлн руб. Крупные компании уже внедряют ГИИ в производственные процессы.

Быстрое развитие технологии ГИИ стало возможно в том числе благодаря отсутствию жестких нормативных ограничений. Вместе с тем новые технологии формируют новые риски в области общественной безопасности: предоставление ложных и неэтичных ответов, участие в мошенничестве и т. д. Ответы на эти новые вызовы отрасль должна искать совместно с обществом и государством, уверены эксперты.

Возможность реализации рисков подтверждают широко известные инциденты, например, случай, произошедший в июне 2023 г. в США: адвокат использовал ГИИ для сбора сведений о прецедентах, доказывающих правоту его клиента, но не знал, что сервис может сгенерировать ложную информацию. В результате он предъявил суду несуществующие дела. Еще один случай произошел в феврале 2024 г. в Китае: сотрудника финансовой службы транснациональной компании обманом заставили выплатить $25 млн мошенникам, которые выдавали себя за финансового директора этой организации, используя технологию «дипфейк» (создание поддельных изображений, видеороликов и других материалов с помощью генеративного ИИ).

В отсутствие общепризнанных подходов к нивелированию рисков каждая страна ищет баланс между регулированием и свободой самостоятельно. Именно поэтому возникает все больше дискуссий о таких правилах работы ГИИ, которые помогут не только сохранять благоприятные условия для развития этой технологии и привлечения инвестиций, но и обеспечивать общественную безопасность.

В России нормативная база для регулирования ИТ-отрасли содержит документы, касающиеся функционирования ИИ. В частности, это Национальная стратегия развития искусственного интеллекта на период до 2030 г. и Концепция развития регулирования отношений в сфере технологий ИИ и робототехники до 2024 г.

Для ГИИ в России применяется механизм саморегулирования, что позволяет сохранять возможности для развития данной технологии. В марте участники Альянса в сфере искусственного интеллекта (включая Сбер, «Яндекс», MTS AI) подписали Декларацию об ответственной разработке и использовании сервисов на основе генеративного ИИ. Документ определяет этические принципы и рекомендации, способствующие ответственному отношению к ИИ.

На текущий момент нормативно-правовая база не охватывает весь жизненный цикл сервиса на основе ГИИ ни в одной из стран, говорится в исследовании. Наиболее широкий охват имеют меры, принятые в Китае.

В ходе исследования был проведен анализ произошедших в мире инцидентов с участием ГИИ и выделены пять самых релевантных рисков: рост объема некачественного контента, сгенерированного ГИИ; потенциальный вред от ложных ответов ГИИ; негативное влияние на рынок труда; цифровое мошенничество; нарушение этических норм.

Аналитики подчеркивают, что большинство рисков можно минимизировать за счет маркировки генеративного контента, в том числе скрытой, создания сервисов для проверки наличия сгенерированных элементов и ответственного отношения к работе с технологией. В частности, в 2023 г. семь компаний (Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI) договорились о разработке и внедрении инструментов в области ответственного ИИ. В перечень этих обязательств входят в том числе маркировка сгенерированного контента и тестирование безопасности разработанных решений.

Генеративный искусственный интеллект будет и впредь существенно влиять на многие сферы бизнеса, на организации и на людей в целом, уверены авторы исследования. Именно поэтому в процессе дальнейшего развития ГИИ в России и расширения областей его применения необходимо продолжать исследовать риски, связанные с этой тенденцией, и предлагать способы совершенствования нормативно-правовой базы, регулирующей данную технологию.

На текущий момент, учитывая опыт зарубежных стран и темпы развития ИИ в России, можно предположить, что оптимальным решением в области регулирования ИИ будет реализация механизма саморегулирования. Он позволяет сохранять баланс между строгостью правил и широтой возможностей для развития технологии. В частности, целесообразно обеспечить постоянный мониторинг развития ГИИ в России, а также анализ обратной связи, поступающей от пользователей сервисов. Это поможет улучшать качество подобных систем и укреплять правовую основу их функционирования. Так представители этой отрасли, государства и общества смогут объединенными усилиями разработать эффективный подход к регулированию ИИ в России.

Механизмы, протестированные в рамках режима саморегулирования, могут позднее стать основой для разработки, например, экспериментальных правовых режимов в области генеративного ИИ.

ИИ — перспективная сфера развития не только для пользовательского сегмента, но для бизнеса и государственного управления, подтверждает руководитель и сооснователь компании по разработке цифровых продуктов и иммерсивных решений VRT Константин Негачев. Россия по объему совокупных вычислительных мощностей с использованием искусственного интеллекта входит в топ-10 мировых лидеров, общий уровень внедрения ИИ в приоритетных сферах экономики в нашей стране уже достигает 31,5%.

«Для создания функциональной правовой системы важно искать компромиссы для развития всей отрасли и проводить открытые дискуссии между командами разработчиков, пользователями и государством. Подобные инициативы выдвигались крупнейшими предпринимателями по всему миру. В сущности, потенциальный вред от свободного использования некоторых из решений на базе ИИ сравнимы с вероятностью использования ядерного оружия, и здесь также крайне важно договориться всем миром о правилах, ограничениях и регламентах работы с данной технологией», — полагает эксперт.

Материалы по теме:
Технологии, 7 ноя 09:00
Белорусские трамваи оснастят российскими ИИ-системами
Технологии, 31 окт 22:45
Как ИИ занимает рабочие места людей
Технологии, 13 окт 11:00
Новой технологии нужно время, чтобы оказать влияние на экономику
Технологии, 16 авг 08:00
Как информационные технологии сменяют друг друга в нашей жизни
Свежие материалы
Нефти предрекли светлое будущее
Промышленность,
МЭА представило новый долгосрочный прогноз по росту спроса на углеводороды
Врачам прописали трудоустройство
Общество,
Как распределение после медвуза скажется на комплектовании медучреждений
Первое китайское размещение
Финансы,
Россия планирует выпуск ОФЗ в юанях