Генеративный искусственный интеллект (ГИИ) — это разновидность ИИ на базе больших языковых моделей, позволяющих создавать новые данные на основе информации, которая использовалась для их обучения. К таким моделям относятся, в частности, GPT-4 (OpenAI), Llama 3 (Meta, признана в РФ экстремистской организацией и запрещена), YandexGPT («Яндекс»), GigaChat (Сбер). Генеративный ИИ (ГИИ) может создавать текст, программный код, высококачественные изображения, а также короткие видео.
Как сам ГИИ, так и сервисы на его основе развиваются беспрецедентно высокими темпами, констатируют авторы исследования, которые полагают, что к 2028 г. экономический потенциал генеративного ИИ в России может достичь 0,8–1,3 трлн руб. Крупные компании уже внедряют ГИИ в производственные процессы.
Быстрое развитие технологии ГИИ стало возможно в том числе благодаря отсутствию жестких нормативных ограничений. Вместе с тем новые технологии формируют новые риски в области общественной безопасности: предоставление ложных и неэтичных ответов, участие в мошенничестве и т. д. Ответы на эти новые вызовы отрасль должна искать совместно с обществом и государством, уверены эксперты.
Возможность реализации рисков подтверждают широко известные инциденты, например, случай, произошедший в июне 2023 г. в США: адвокат использовал ГИИ для сбора сведений о прецедентах, доказывающих правоту его клиента, но не знал, что сервис может сгенерировать ложную информацию. В результате он предъявил суду несуществующие дела. Еще один случай произошел в феврале 2024 г. в Китае: сотрудника финансовой службы транснациональной компании обманом заставили выплатить $25 млн мошенникам, которые выдавали себя за финансового директора этой организации, используя технологию «дипфейк» (создание поддельных изображений, видеороликов и других материалов с помощью генеративного ИИ).
В отсутствие общепризнанных подходов к нивелированию рисков каждая страна ищет баланс между регулированием и свободой самостоятельно. Именно поэтому возникает все больше дискуссий о таких правилах работы ГИИ, которые помогут не только сохранять благоприятные условия для развития этой технологии и привлечения инвестиций, но и обеспечивать общественную безопасность.
В России нормативная база для регулирования ИТ-отрасли содержит документы, касающиеся функционирования ИИ. В частности, это Национальная стратегия развития искусственного интеллекта на период до 2030 г. и Концепция развития регулирования отношений в сфере технологий ИИ и робототехники до 2024 г.
Для ГИИ в России применяется механизм саморегулирования, что позволяет сохранять возможности для развития данной технологии. В марте участники Альянса в сфере искусственного интеллекта (включая Сбер, «Яндекс», MTS AI) подписали Декларацию об ответственной разработке и использовании сервисов на основе генеративного ИИ. Документ определяет этические принципы и рекомендации, способствующие ответственному отношению к ИИ.
На текущий момент нормативно-правовая база не охватывает весь жизненный цикл сервиса на основе ГИИ ни в одной из стран, говорится в исследовании. Наиболее широкий охват имеют меры, принятые в Китае.
В ходе исследования был проведен анализ произошедших в мире инцидентов с участием ГИИ и выделены пять самых релевантных рисков: рост объема некачественного контента, сгенерированного ГИИ; потенциальный вред от ложных ответов ГИИ; негативное влияние на рынок труда; цифровое мошенничество; нарушение этических норм.
Аналитики подчеркивают, что большинство рисков можно минимизировать за счет маркировки генеративного контента, в том числе скрытой, создания сервисов для проверки наличия сгенерированных элементов и ответственного отношения к работе с технологией. В частности, в 2023 г. семь компаний (Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI) договорились о разработке и внедрении инструментов в области ответственного ИИ. В перечень этих обязательств входят в том числе маркировка сгенерированного контента и тестирование безопасности разработанных решений.
Генеративный искусственный интеллект будет и впредь существенно влиять на многие сферы бизнеса, на организации и на людей в целом, уверены авторы исследования. Именно поэтому в процессе дальнейшего развития ГИИ в России и расширения областей его применения необходимо продолжать исследовать риски, связанные с этой тенденцией, и предлагать способы совершенствования нормативно-правовой базы, регулирующей данную технологию.
На текущий момент, учитывая опыт зарубежных стран и темпы развития ИИ в России, можно предположить, что оптимальным решением в области регулирования ИИ будет реализация механизма саморегулирования. Он позволяет сохранять баланс между строгостью правил и широтой возможностей для развития технологии. В частности, целесообразно обеспечить постоянный мониторинг развития ГИИ в России, а также анализ обратной связи, поступающей от пользователей сервисов. Это поможет улучшать качество подобных систем и укреплять правовую основу их функционирования. Так представители этой отрасли, государства и общества смогут объединенными усилиями разработать эффективный подход к регулированию ИИ в России.
Механизмы, протестированные в рамках режима саморегулирования, могут позднее стать основой для разработки, например, экспериментальных правовых режимов в области генеративного ИИ.
ИИ — перспективная сфера развития не только для пользовательского сегмента, но для бизнеса и государственного управления, подтверждает руководитель и сооснователь компании по разработке цифровых продуктов и иммерсивных решений VRT Константин Негачев. Россия по объему совокупных вычислительных мощностей с использованием искусственного интеллекта входит в топ-10 мировых лидеров, общий уровень внедрения ИИ в приоритетных сферах экономики в нашей стране уже достигает 31,5%.
«Для создания функциональной правовой системы важно искать компромиссы для развития всей отрасли и проводить открытые дискуссии между командами разработчиков, пользователями и государством. Подобные инициативы выдвигались крупнейшими предпринимателями по всему миру. В сущности, потенциальный вред от свободного использования некоторых из решений на базе ИИ сравнимы с вероятностью использования ядерного оружия, и здесь также крайне важно договориться всем миром о правилах, ограничениях и регламентах работы с данной технологией», — полагает эксперт.