Ущерб креаторов от использования искусственного интеллекта (ИИ) исследователи разделили на два ключевых вида. Первый касается снижения оплаты авторского заказа и замещения труда авторов за счет использования генеративных объектов. В течение предстоящих пяти лет такие потери в творческих профессиях будут составлять 935,2 млрд руб., прогнозируют эксперты ВШЭ. Второй вид ущерба вызван уменьшением доходов авторов и других правообладателей из-за поступления в оборот произведений, которые полностью или в большей степени созданы при помощью ИИ. За пять лет креаторы по этой причине могут лишиться еще 68,5 млрд руб.
В презентации говорится, что наибольшие потери ожидаются у программистов и разработчиков - порядка 542 млрд руб. В профессиях с высоким содержанием творческого труда убытки от ИИ составят 292 млрд руб.
Потери подсчитывались для профессий, которые более других подвержены рискам от использования ИИ. В общей сложности исследователи выделили 12 таких групп, включая программистов, музыкантов, журналистов, специалистов по рекламе, писателей, дизайнеров и др.
Самые крупные риски возникают у переводчиков и лингвистов: к 2030 году генеративные произведения могут достичь 29,6% всего контента в этой профессиональной сфере, следует из презентации, представленной Леонидом Гохбергом. На втором месте оказались писатели, поэты и литераторы, а также композиторы (по 27,7%), на третьем — программисты и разработчики ПО (26,3%). На четвертом месте — журналисты (24,5%), на пятом — специалисты по рекламе и маркетингу (21,8%).
Как показало исследование американской SEO-компании Graphite, объем статей в интернете, созданных ИИ, ненадолго превысил число человеческих текстов, но затем показатели сравнялись. По состоянию на май 2025 года в сети было 52% сгенерированных ИИ статей и 48% написанных людьми. Анализ базировался на изучении 65 тыс. веб-страниц из открытой базы данных Common Crawl с 2020 по 2025 год. Резкий скачок доли ИИ-статей произошел сразу после запуска ChatGPT в 2023 году, достигнув пика в ноябре 2024 года.
Больше новостей читайте в нашем телеграм-канале @expert_mag