Интервью

Интеллект идет на пользу

К 2028 г. экономический потенциал генеративного ИИ в России может достичь 0,8–1,3 трлн руб.

Интеллект идет на пользу
Фото: Freepik
Россия — одна из самых благоприятных стран для развития технологии искусственного интеллекта (ИИ), но ей следует учесть возможные риски в этой сфере и изучить международную практику их преодоления. Таковы выводы исследования компании «Яков и Партнёры» и Альянса в сфере искусственного интеллекта «Регулирование генеративного ИИ: правовой анализ и риски для РФ». Способом снижения рисков, как и во многих странах, может стать механизм саморегулирования для компаний, работающих с ИИ. Он позволяет сохранять баланс между строгостью правил и широтой возможностей для развития технологии.

Генеративный искусственный интеллект (ГИИ) — это разновидность ИИ на базе больших языковых моделей, позволяющих создавать новые данные на основе информации, которая использовалась для их обучения. К таким моделям относятся, в частности, GPT-4 (OpenAI), Llama 3 (Meta, признана в РФ экстремистской организацией и запрещена), YandexGPT («Яндекс»), GigaChat (Сбер). Генеративный ИИ (ГИИ) может создавать текст, программный код, высококачественные изображения, а также короткие видео.

Как сам ГИИ, так и сервисы на его основе развиваются беспрецедентно высокими темпами, констатируют авторы исследования, которые полагают, что к 2028 г. экономический потенциал генеративного ИИ в России может достичь 0,8–1,3 трлн руб. Крупные компании уже внедряют ГИИ в производственные процессы.

Быстрое развитие технологии ГИИ стало возможно в том числе благодаря отсутствию жестких нормативных ограничений. Вместе с тем новые технологии формируют новые риски в области общественной безопасности: предоставление ложных и неэтичных ответов, участие в мошенничестве и т. д. Ответы на эти новые вызовы отрасль должна искать совместно с обществом и государством, уверены эксперты.

Возможность реализации рисков подтверждают широко известные инциденты, например, случай, произошедший в июне 2023 г. в США: адвокат использовал ГИИ для сбора сведений о прецедентах, доказывающих правоту его клиента, но не знал, что сервис может сгенерировать ложную информацию. В результате он предъявил суду несуществующие дела. Еще один случай произошел в феврале 2024 г. в Китае: сотрудника финансовой службы транснациональной компании обманом заставили выплатить $25 млн мошенникам, которые выдавали себя за финансового директора этой организации, используя технологию «дипфейк» (создание поддельных изображений, видеороликов и других материалов с помощью генеративного ИИ).

В отсутствие общепризнанных подходов к нивелированию рисков каждая страна ищет баланс между регулированием и свободой самостоятельно. Именно поэтому возникает все больше дискуссий о таких правилах работы ГИИ, которые помогут не только сохранять благоприятные условия для развития этой технологии и привлечения инвестиций, но и обеспечивать общественную безопасность.

В России нормативная база для регулирования ИТ-отрасли содержит документы, касающиеся функционирования ИИ. В частности, это Национальная стратегия развития искусственного интеллекта на период до 2030 г. и Концепция развития регулирования отношений в сфере технологий ИИ и робототехники до 2024 г.

Для ГИИ в России применяется механизм саморегулирования, что позволяет сохранять возможности для развития данной технологии. В марте участники Альянса в сфере искусственного интеллекта (включая Сбер, «Яндекс», MTS AI) подписали Декларацию об ответственной разработке и использовании сервисов на основе генеративного ИИ. Документ определяет этические принципы и рекомендации, способствующие ответственному отношению к ИИ.

На текущий момент нормативно-правовая база не охватывает весь жизненный цикл сервиса на основе ГИИ ни в одной из стран, говорится в исследовании. Наиболее широкий охват имеют меры, принятые в Китае.

В ходе исследования был проведен анализ произошедших в мире инцидентов с участием ГИИ и выделены пять самых релевантных рисков: рост объема некачественного контента, сгенерированного ГИИ; потенциальный вред от ложных ответов ГИИ; негативное влияние на рынок труда; цифровое мошенничество; нарушение этических норм.

Аналитики подчеркивают, что большинство рисков можно минимизировать за счет маркировки генеративного контента, в том числе скрытой, создания сервисов для проверки наличия сгенерированных элементов и ответственного отношения к работе с технологией. В частности, в 2023 г. семь компаний (Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI) договорились о разработке и внедрении инструментов в области ответственного ИИ. В перечень этих обязательств входят в том числе маркировка сгенерированного контента и тестирование безопасности разработанных решений.

Генеративный искусственный интеллект будет и впредь существенно влиять на многие сферы бизнеса, на организации и на людей в целом, уверены авторы исследования. Именно поэтому в процессе дальнейшего развития ГИИ в России и расширения областей его применения необходимо продолжать исследовать риски, связанные с этой тенденцией, и предлагать способы совершенствования нормативно-правовой базы, регулирующей данную технологию.

На текущий момент, учитывая опыт зарубежных стран и темпы развития ИИ в России, можно предположить, что оптимальным решением в области регулирования ИИ будет реализация механизма саморегулирования. Он позволяет сохранять баланс между строгостью правил и широтой возможностей для развития технологии. В частности, целесообразно обеспечить постоянный мониторинг развития ГИИ в России, а также анализ обратной связи, поступающей от пользователей сервисов. Это поможет улучшать качество подобных систем и укреплять правовую основу их функционирования. Так представители этой отрасли, государства и общества смогут объединенными усилиями разработать эффективный подход к регулированию ИИ в России.

Механизмы, протестированные в рамках режима саморегулирования, могут позднее стать основой для разработки, например, экспериментальных правовых режимов в области генеративного ИИ.

ИИ — перспективная сфера развития не только для пользовательского сегмента, но для бизнеса и государственного управления, подтверждает руководитель и сооснователь компании по разработке цифровых продуктов и иммерсивных решений VRT Константин Негачев. Россия по объему совокупных вычислительных мощностей с использованием искусственного интеллекта входит в топ-10 мировых лидеров, общий уровень внедрения ИИ в приоритетных сферах экономики в нашей стране уже достигает 31,5%.

«Для создания функциональной правовой системы важно искать компромиссы для развития всей отрасли и проводить открытые дискуссии между командами разработчиков, пользователями и государством. Подобные инициативы выдвигались крупнейшими предпринимателями по всему миру. В сущности, потенциальный вред от свободного использования некоторых из решений на базе ИИ сравнимы с вероятностью использования ядерного оружия, и здесь также крайне важно договориться всем миром о правилах, ограничениях и регламентах работы с данной технологией», — полагает эксперт.

Материалы по теме:
Технологии, Вчера 20:21
Синтетические данные и дообучение делают ИИ дешевле
Технологии, 12 янв 14:00
Nvidia представила серию RTX 50
Технологии, 4 янв 10:40
Что ждет LLM в будущем
Технологии, 17 дек 09:00
Корпоративные хранилища стали новым инструментом управления
Свежие материалы
Как создать ChatGPT за $450
Технологии,
Синтетические данные и дообучение делают ИИ дешевле
Деньги перетекают в ПИФы
Финансы,
Чистый приток средств в паевые инвестиционные фонды в 2024 году вырос в 3,5 раза
Чего стоит ждать от визита Михаила Мишустина во Вьетнам
Экономика,
Глава кабмина проложит дорогу туристам и мирному атому