Эволюция привычных действий
В 1956 г. в Дартмутском колледже прошла конференция о «механизации интеллекта», на которой Джон Маккарти, когнитивист и специалист по информатике, впервые предложил термин «искусственный интеллект». Этот момент стал началом истории ИИ.
Однако революцию он произвел далеко не сразу. Еще буквально пару лет назад пользователь общался с примитивными чат-ботами, чьи возможности ограничивались простыми скриптами и заранее заданными шаблонами ответов. Эти системы могли поддерживать лишь базовую беседу, часто повторяя одни и те же шаблонные фразы и теряясь в нестандартных ситуациях. Всё изменилось, когда чат-ботов стал вытеснять генеративный искусственный интеллект, способный вести осмысленные диалоги, понимать нюансы вопросов и решать повседневные задачи.
Но этим возможности больших языковых моделей не ограничиваются. Они также положили начало внедрению автономных ИИ-агентов и многочисленных инструментов по быстрой оптимизации любых регулярных задач, начиная от простого сбора и обработки данных до предоставления подробных отчетов и предложений по оптимизации рабочих процессов. Например, в медицине ИИ-агенты помогают диагностировать заболевания или мониторить состояние пациентов, в логистике — прогнозируют загрузку складов, в финансах — анализируют транзакции, в маркетинге — анализируют поведение потребителей и повышают продажи.
За интеллектуальными агентами будущее, убежден управляющий директор по ИИ «Авито» Андрей Рыбинцев. В компаниях они ускоряют процессы и снижают нагрузку на команды, а для пользователей упрощают взаимодействие с сервисом, делают выбор точнее и заметно сокращают время поиска. «Мы движемся от классического поиска к диалоговому взаимодействию. Пользователь всë чаще ожидает не просто списка опций, а полноценного разговора с платформой, в котором ИИ-агент помогает быстрее и точнее находить нужное», — рассказал Рыбинцев.
Безлюдное место
Возникает закономерный вопрос: останется ли место человеку в компании, если тот же ИИ-агент будет выполнять все задачи вместо него. Данные исследования Международной организации труда свидетельствуют: около 25% рабочих мест в мире потенциально подвержены воздействию ИИ, а в развитых странах этот показатель достигает 34%. Среди женщин вероятность того, что их работа измениться под влиянием ИИ, значительно выше. В развитых странах рабочие места с самым высоким риском автоматизации составляют 9,6% женской занятости — по сравнению с 3,5% таких рабочих мест среди мужчин.
Эксперты убеждены, что люди смогут остаться на своих рабочих местах, если сумеют вовремя адаптироваться. Сотрудники должны быть обучены работе с искусственным интеллектом, понимать, как использовать его для повышения своей эффективности и как выстраивать распределение задач между человеком и моделью, считает гендиректор MWS AI (входит в МТС) Денис Филиппов.
«Новая стратегическая роль HR — не сокращение, а переквалификация. Компании нужно инвестировать в повышение ИИ-грамотности персонала: навыкам постановки запросов, интерпретации результатов, оценке качества, работе с контентом и данными, обучению моделей под задачи бизнеса. Это позволяет переводить людей на роли с большей интеллектуальной нагрузкой, включая контроль, оптимизацию процессов, развитие ИИ-систем и управление качеством», — уверен Филиппов. Вопрос не в том, произойдёт ли замещение человека, а в том, готовы ли компании выстроить модель развития людей под новые требования, добавил он. Это очень важно для России, где есть острая нехватка людей практически во всех областях.
Угроза или благо?
И все же известные люди расходятся во мнении относительно судьбы искусственного интеллекта. В этом году глава Сбера Герман Греф в одном из интервью призвал «дать машине свободу», добавив, что должны быть и ограничения в рамках законодательства. «Всë остальное она (машина) вольна делать сама», — убежден Греф.
В декабре 2023 г. Сбер представил новую стратегию, согласно которой в 2024–2026 гг. банк намерен перейти на человекоцентричную бизнес-модель и развивать искусственный интеллект «нового поколения». Согласно этому подходу, большинство решений должны приниматься в автоматическом режиме на основе ИИ, а для ручных операций останутся только самые сложные продукты.
В то же время глава Tesla, SpaceX, Twitter Илон Маск и сооснователь Apple Стив Возняк призвали приостановить разработку и обучение нейросетей. «Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — задались они вопросом в своем открытом письме.
Искусственный интеллект действительно может нести в себе некоторые риски, однако их можно предусмотреть, считают эксперты. «Любой ИИ на основе языковых моделей может ввести в заблуждение своей уверенностью, поэтому нужно уметь перепроверять важную информацию, просить ссылки на источники или примеры», — говорит начальник управления продуктивизации искусственного интеллекта Х5 Tech Максим Павлов. По его словам, ответы ИИ могут содержать некорректную, нецензурную или вредную информацию, потому что языковые модели учат на открытых данных и не всегда есть возможность отфильтровать неподходящий контент. Еще один нюанс, по его словам, — преобладание определенной точки зрения в ответах сервиса той или иной компании. При этом такие ситуации не отображают реальное намерение компаний, которые создают или используют системы с ИИ. Через некоторое время такие ситуации будут очень редки, отметил Павлов. В этих условиях наиболее подходящий вариант — создать «советника» или «копилота», когда ИИ дает предварительный анализ и предложение, но решение останется за человеком, считает эксперт.
Наконец, использование ИИ порой грозит утечкой конфиденциальных данных, что строго регулируется законодательством многих стран, отмечает Максим Павлов. «В России, например, за утечку персональных данных могут наложить штраф в определенном размере от оборота компании. Если такие данные отправить в любой ИИ, то теоретически они могут попасть в открытый доступ при переобучении модели», — предостерегает эксперт. По его словам, есть и более узкие риски — вопросы авторского права для данных, на которых учатся модели, угрозы кибербезопасности при массовом внедрении ИИ в мошеннические схемы, генерация фальшивых изображений и прочее.
Важно сохранять баланс: с одной стороны, нужно защищать пользователей и минимизировать риски, с другой — чрезмерные ограничения могут затормозить развитие технологий и лишить общество их пользы, считает Рыбинцев. Технология должна служить во благо людей, процесс принятия ИИ-решений должен быть понятным и объяснимым, а ИИ-системы — безопасными и надежными.
ИИ эволюционирует
Пока открытым остается вопрос регулирование применения ИИ. В августе этого года Минцифры разработало проект концепции развития регулирования отношений в сфере технологий искусственного интеллекта до 2030 г. Основой будущего регулирования должен стать человекоориентированный подход, доверенность технологий, принцип технологического суверенитета, уважение автономии и свободы воли человека, запрет на причинение вреда человеку и недопущение «очеловечения» технологий.
Постепенно вводится и ответственность за применение ИИ. Летом прошлого года Госдума приняла закон, который предусматривает обязанность субъектов экспериментального правового режима (ЭПР) вести реестры лиц, непосредственно работающих с технологиями ИИ, которые в случае возникновения нештатных ситуаций будут нести ответственность за неправильную эксплуатацию таких технологий. Также в реестр будут вноситься данные о результатах интеллектуальной деятельности, созданных с применением ИИ и с указанием их правообладателей.
При этом IT-сообщество уверено, что правильный путь развития сферы ИИ — саморегулирование и внутренние этические нормы. Жесткое регулирование непременно скажется на темпе развития ИИ-отрасли, считает Рыбинцев. В 2019 г. ведущие технологические компании создали Альянс в сфере искусственного интеллекта, который в 2021 г. подписал кодекс этики в сфере искусственного интеллекта. Он, в частности, устанавливает следующие принципы: человекоориентированный и гуманистический подход, уважение автономии и свободы воли человека, соответствие закону, отказ от дискриминации, оценку рисков и воздействия.
Помимо регулирования и создания этических норм, бизнес все больше волнует финансовый вопрос. Компаниям нужна не «магия ИИ», а понятный, измеримый результат, который можно посчитать, встроить в процессы и показать в цифрах, считает Денис Филиппов. А пользователям не важно, что происходит «под капотом»: они ждут сервисы с готовой логикой диалога и быстрым ответом. «Формируется новая продуктовая категория: консалтинг по ИИ-трансформации. Компании поставляют не только технологические решения, но и берут на себя задачу работы на бизнес-результат. Это включает постановку целей, настройку внутренних процессов, запуск трансформационного офиса и полный цикл от консалтинга до внедрения, помощь заказчику в развитии внутренней экспертизы», — отмечает он.
Стоит ожидать и роста стоимости использования ИИ, добавляет Максим Павлов. В какой-то момент использование инструментов с ИИ будет нормой наряду с использованием Excel или Word и перестанет быть чем-то необычным, убежден он. В то же время не стоит ожидать появления сильного искусственного интеллекта (AGI). Текущие инженерные подходы, которые помогли создать тот же ChatGPT, появились около 8 лет назад. «Нового прорыва пока никто не заявил. Консенсуса у учёных по поводу принципиальности создания ИИ тоже нет. В основном об этом заявляют компании, которые явно аффилированы с разработкой ИИ моделей и получают пользу от обсуждения», — заключает эксперт.
Современные модели сильно ограничены своей архитектурой, добавляет Филиппов. У них нет непрерывного сознания: каждый диалог для модели — это фактически новое начало без накопленного опыта, иначе контекст ломается, а точности для решения узкоспециализированных задач в компаниях не хватает. Ограничены и данные: текстовых корпусов уже мало, поэтому все стремятся к доступу к качественным отраслевым наборам. «Рынок по-прежнему сосредоточен на продуктах для получения от ИИ реального финансового эффекта и поиске новых архитектур, которые могли бы приблизить сильный ИИ. Но предсказать появление принципиально новых подходов или наступление общего ИИ невозможно», — заключает эксперт.
Больше новостей читайте в нашем телеграм-канале @expert_mag