9–10 февраля в ряде telegram-каналов распространилось видео, на котором якобы Дональд Трамп заявляет, что потребовал от Владимира Путина вернуть Украине присоединенные территории. Определить, что видео сгенерировано при помощи ИИ, достаточно сложно: модели создают правдоподобный голос Трампа и движения его губ, российскую озвучку также трудно отличить от настоящей — в ней имитируется даже дыхание диктора.
Генеративные модели совершили огромный скачок в развитии. Для сравнения: в 2023 г. подобное распространение получило фейковое изображение, на котором якобы Владимир Путин падает на колени перед Си Цзиньпином во время его визита в Россию. Определить то, что изображение сгенерировал ИИ, достаточно просто: модель ошибается в человеческих пропорциях, чрезмерно размывает детали и контуры, а также хаотично «генерирует» пальцы рук (видно у человека на фоне).
Развитие генеративного ИИ идет стремительно, и с недавними успехами китайских моделей LLM в запуске на небольших мощностях риски появления всё большего числа правдоподобных дипфейков увеличиваются. Тем более притом, что многие эти модели распространяются на бесплатной основе, а качество генерации приближается к флагманским.
С развитием ИИ в дипфейках становится всё сложнее выделить какие-то конкретные, понятные человеку признаки, которые можно выловить чисто визуально, отметил в комментарии «Эксперту» доцент департамента анализа данных и искусственного интеллекта факультета компьютерных наук НИУ ВШЭ Дмитрий Ильвовский. В данном случае будущее за автоматическими методами, которые анализируют видео или звук целиком и определяют по скрытым, неочевидным характеристикам, является видео реальным или дипфейком, считает он. Тем не менее и сейчас в силу несовершенства многих моделей сохраняются некоторые визуальные артефакты.
Для визуального ряда дипфейка характерны неестественное освещение и тени, артефакты сжатия (блочность или зернистость изображения) и размытие (особенно вокруг границ лица, волос, мелких деталей), неестественная текстура кожи, несоответствия в фокусе, неестественная асимметрия, проблемы с изображением глаз, волос, границ лица и шеи, отсутствие моргания, рассказала «Эксперту» ведущий научный сотрудник Лаборатории искусственного интеллекта, нейротехнологий и бизнес-аналитики РЭУ им. Г. В. Плеханова Марина Холод. Для звука в дипфейке характерен неестественный тон голосов, артефакты синтеза речи («щелчки», «шипение» и пр.), отсутствие эмоций в голосе, несоответствие содержания и интонации, резкие переходы, звуковая среда может казаться слишком чистой и стерильной, без естественных фоновых шумов, которые должны присутствовать в данной ситуации.
Видеодипфейки, как правило, отличить значительно проще, считает операционный директор аналитического проекта «Рейтинг Рунета» Анатолий Денисов. К основным признакам относятся неестественная мимика, рассинхрон между лицевой мимикой и речью. Кроме того, дипфейк может выдать избыточная пикселизация и низкое качество видео.
Как и любые математические модели, генеративный ИИ допускает ошибки в предсказании значений для воспроизведения реальных данных, указывает Марина Холод из РЭУ им. Г. В. Плеханова. Это происходит по ряду причин: например, на этапе обучения ИИ может получать очень ограниченный набор видео и звука, а сами данные могут быть неточными или содержать помехи и ошибки, уточняет она. Модель ИИ обучится на этих данных и, соответственно, также будет выдавать неточности, ошибки, шероховатости.
В обучающих данных чаще появляются видео определенного типа, подчеркивает Дмитрий Ильвовский из НИУ ВШЭ. Стандартный материал для обучения моделей — это запись, на которой человек в кадре что-то говорит и при этом не очень много двигается, уточняет он. Если есть отступление от такого рода сюжетов, то модель начинает справляться хуже, в связи с этим визуальные артефакты, на которые можно обращать внимание, — это второстепенные детали (например, фон, детали одежды, что-то не связанное с главным героем или героями сцены), подчеркивает доцент: «Всё-таки реальность намного больше и шире с точки зрения разных ситуаций, которые можно снять на видео, чем то, что есть в интернете. В интернете же, откуда берутся большинство данных для обучения, есть безусловный дисбаланс данных».
На ограниченность обучающих видео для ИИ указывает и Марина Холод. И хотя со временем модели научатся генерировать еще более правдоподобные дипфейки, при должном уровне критического мышления их можно будет сравнить с оригинальными видео и выявить фейк и в будущем, уверена она. По мнению же Ильвовского, в среднесрочной перспективе модели будут создавать изображение и звук, неотличимые от реальных, а выявить дипфейки смогут только машинные алгоритмы. Такие есть и сейчас, они отслеживают наличие водяных знаков на видео или цифровых кодах, шифры внутри самого файла, то есть то, что «не видно» для человека, продолжает он. Развитие ИИ-технологий и одновременно алгоритмов, проверяющих продукты этих технологий, станет большой и значимой гонкой в будущем.
Больше новостей читайте в нашем телеграм-канале @expert_mag