Большим моделям показали язык

Почему результаты деятельности ИИ называют помоями

Иллюстрация: Peter Hamlin/AP/TASS
Издатель американского словаря Merriam-Webster определил очередное «слово года». В 2025 г. им стало slop («помои») — применительно к результатам деятельности больших языковых моделей (LLM). «Эксперт» выяснил, почему генеративный ИИ не оправдывает возлагавшихся на него надежд.

Слово slop в его новом толковании словарь определяет как «цифровой контент низкого качества, производимый в больших объемах искусственным интеллектом». Ранее похожий перенос значения произошел со словом spam, которым называли консервированную ветчину, но в силу навязчивости рекламы этого продукта оно стало неологизмом для описания массовых рассылок.

Merriam-Webster объясняет произошедший в 2025 г. перенос смысла слова slop на сгенерированный искусственным интеллектом контент тем, что ИИ заполонил интернет примитивными и часто бессмысленными нарративами и изображениями. Но главная претензия пользователей к ИИ состоит в том, что языковые модели стали инструментом создания фальшивых новостей, относительно правдоподобно маскирующихся под настоящие и способных оказывать реальное влияние людей. В этой мимикрии LLM (самой популярной среди которых сейчас является генератор видеоконтента Sora 2, разработанный в OpenAI) достигли такого совершенства, что производимый ими slop в 2025 г. несколько раз цитировался мировыми политиками и агентствами как подлинная информация (например, «новость» про албанского министра по вопросам ИИ Диэллу).

«Мы вступили в золотой век тотальной дезинформации, дипфейков, пренебрежения авторскими правами и засилия говорящих котиков. Отныне каждое слово и каждый факт требуется перепроверять», — предупреждает Merriam-Webster.

Выбор слова slop довольно точно отражает фазу, в которую вошел генеративный ИИ и пользователи. В 2023–2024 гг. ожидания были завышены: от LLM ждали мыслящего интеллекта. В реальности модели оказались хорошими статистическими генераторами, но слабыми мыслителями, заявил «Эксперту» заместитель исполнительного директора Центра компетенций Национальной технологической инициативы по большим данным МГУ им. М.В. Ломоносова Гарник Арутюнян: «Основная проблема в том, что генеративный ИИ не понимает контекст и смысл, а лишь воспроизводит наиболее вероятные паттерны текстово-графической информации. Чем сложнее задача, тем выше риск убедительно звучащей, но ошибочной информации».

Как ранее сообщал «Эксперт», 70% россиян уже научились распознавать контент, созданный с помощью искусственного интеллекта.

Мы наблюдаем спад «карго-культа» вокруг возможностей LLM и возврат к более трезвой оценке этих технологий, сказал «Эксперту» руководитель департамента анализа данных и искусственного интеллекта, заведующий международной научно-учебной лабораторией интеллектуальных систем и структурного анализа НИУ ВШЭ Сергей Кузнецов: «Трезвая, лишенная хайпа оценка показывает, что качество обучения искусственного интеллекта с каждым витком спирали ухудшается. Если первоначально LLM обучались на „естественных“ текстах, созданных человеком, то затем они в качестве учебного материала начали брать контент, сгенерированный ими же самими ранее — со всеми его галлюцинациями и ошибками. В результате каждое следующее поколение LLM оказывается „глупее“ предыдущего».

Бороться с разрушительным влиянием генеративного ИИ на медиасреду возможно, например, путем сертификации производимого им контента.

В России шаги в этом направлении уже делаются. В Госдуму 14 ноября внесен проект закона об обязательной маркировке видеоматериалов, созданных с помощью ИИ. Документ призван обеспечить прозрачность и защитить пользователей от манипуляций с применением дипфейков и фейковых новостей.

По мнению сооснователя и исполнительного директора ИИ-платформы AutoFAQ Владислава Беляева, критику в отношении генеративного ИИ не стоит воспринимать как свидетельство провала этой технологии: «Как и любая инновация, генеративный ИИ развивается по кривой Гартнера — проходит путь от стадии хайпа до продуктивного использования. При этом между этими двумя точками лежит так называемая пропасть разочарования. Пик завышенных ожиданий генеративный ИИ прошел еще в 2024 году, и сейчас технология переживает вторую волну. Мы не видим тенденцию к массовому отказу бизнеса от генеративного ИИ. Напротив, если в 2024 году больше 50% российских компаний сообщили о применении генеративного ИИ хотя бы в одной функции бизнеса, то в 2025 году этот показатель достиг уже 71%».

Больше новостей читайте в нашем телеграм-канале @expert_mag

Свежие материалы
Мнения,
Как найти баланс между правилами и саморегулированием
Промышленность,
Ведомства проработают возврат к рыночным механизмам на рынке удобрений
Финансы,
Россияне больше не смогут покрывать займы за счет займов