beta.expert.ru — Новый «Эксперт»: загляните в будущее сайта
Интервью

Большим моделям показали язык

Почему результаты деятельности ИИ называют помоями

Большим моделям показали язык
Иллюстрация: Peter Hamlin/AP/TASS
Издатель американского словаря Merriam-Webster определил очередное «слово года». В 2025 г. им стало slop («помои») — применительно к результатам деятельности больших языковых моделей (LLM). «Эксперт» выяснил, почему генеративный ИИ не оправдывает возлагавшихся на него надежд.

Слово slop в его новом толковании словарь определяет как «цифровой контент низкого качества, производимый в больших объемах искусственным интеллектом». Ранее похожий перенос значения произошел со словом spam, которым называли консервированную ветчину, но в силу навязчивости рекламы этого продукта оно стало неологизмом для описания массовых рассылок.

Merriam-Webster объясняет произошедший в 2025 г. перенос смысла слова slop на сгенерированный искусственным интеллектом контент тем, что ИИ заполонил интернет примитивными и часто бессмысленными нарративами и изображениями. Но главная претензия пользователей к ИИ состоит в том, что языковые модели стали инструментом создания фальшивых новостей, относительно правдоподобно маскирующихся под настоящие и способных оказывать реальное влияние людей. В этой мимикрии LLM (самой популярной среди которых сейчас является генератор видеоконтента Sora 2, разработанный в OpenAI) достигли такого совершенства, что производимый ими slop в 2025 г. несколько раз цитировался мировыми политиками и агентствами как подлинная информация (например, «новость» про албанского министра по вопросам ИИ Диэллу).

«Мы вступили в золотой век тотальной дезинформации, дипфейков, пренебрежения авторскими правами и засилия говорящих котиков. Отныне каждое слово и каждый факт требуется перепроверять», — предупреждает Merriam-Webster.

Выбор слова slop довольно точно отражает фазу, в которую вошел генеративный ИИ и пользователи. В 2023–2024 гг. ожидания были завышены: от LLM ждали мыслящего интеллекта. В реальности модели оказались хорошими статистическими генераторами, но слабыми мыслителями, заявил «Эксперту» заместитель исполнительного директора Центра компетенций Национальной технологической инициативы по большим данным МГУ им. М.В. Ломоносова Гарник Арутюнян: «Основная проблема в том, что генеративный ИИ не понимает контекст и смысл, а лишь воспроизводит наиболее вероятные паттерны текстово-графической информации. Чем сложнее задача, тем выше риск убедительно звучащей, но ошибочной информации».

Как ранее сообщал «Эксперт», 70% россиян уже научились распознавать контент, созданный с помощью искусственного интеллекта.

Мы наблюдаем спад «карго-культа» вокруг возможностей LLM и возврат к более трезвой оценке этих технологий, сказал «Эксперту» руководитель департамента анализа данных и искусственного интеллекта, заведующий международной научно-учебной лабораторией интеллектуальных систем и структурного анализа НИУ ВШЭ Сергей Кузнецов: «Трезвая, лишенная хайпа оценка показывает, что качество обучения искусственного интеллекта с каждым витком спирали ухудшается. Если первоначально LLM обучались на „естественных“ текстах, созданных человеком, то затем они в качестве учебного материала начали брать контент, сгенерированный ими же самими ранее — со всеми его галлюцинациями и ошибками. В результате каждое следующее поколение LLM оказывается „глупее“ предыдущего».

Бороться с разрушительным влиянием генеративного ИИ на медиасреду возможно, например, путем сертификации производимого им контента.

В России шаги в этом направлении уже делаются. В Госдуму 14 ноября внесен проект закона об обязательной маркировке видеоматериалов, созданных с помощью ИИ. Документ призван обеспечить прозрачность и защитить пользователей от манипуляций с применением дипфейков и фейковых новостей.

По мнению сооснователя и исполнительного директора ИИ-платформы AutoFAQ Владислава Беляева, критику в отношении генеративного ИИ не стоит воспринимать как свидетельство провала этой технологии: «Как и любая инновация, генеративный ИИ развивается по кривой Гартнера — проходит путь от стадии хайпа до продуктивного использования. При этом между этими двумя точками лежит так называемая пропасть разочарования. Пик завышенных ожиданий генеративный ИИ прошел еще в 2024 году, и сейчас технология переживает вторую волну. Мы не видим тенденцию к массовому отказу бизнеса от генеративного ИИ. Напротив, если в 2024 году больше 50% российских компаний сообщили о применении генеративного ИИ хотя бы в одной функции бизнеса, то в 2025 году этот показатель достиг уже 71%».

Больше новостей читайте в нашем телеграм-канале @expert_mag

Материалы по теме:
Технологии, 23 мар 16:50
Стоит ли немедленно вкладываться в ИИ-стартапы
Технологии, 13 мар 17:45
Место России в ключевых направлениях мировой экономики
Технологии, 11 мар 10:00
В нерегулируемом развитии ИИ есть «предчувствие Апокалипсиса»
Технологии, 4 мар 14:00
Как будет развиваться экономика искусственного интеллекта в зависимости от принимаемых сейчас правил
Свежие материалы
Бумага всё терпит
Общество,
Книгопродавцы сбывают книги по дешевке, но разорение им не грозит
Банкротам готовят план спасения
Общество,
Должникам хотят дать шанс расплатиться
Искусство идет в народ
Общество,
Как грабят музеи мира