За 2024–2025 гг. риски выхода больших языковых моделей (LLM) из-под контроля их создателей «существенно возросли». Авторы доклада считают, что международное сообщество должно действовать сообща для предотвращения потенциальных угроз со стороны ИИ точно так же, как оно взаимодействует по вопросам здравоохранения, климата и прочих глобальных вызовов.
Ведущие мировые разработчики LLM из США не приняли участие в составлении доклада, и основную массу данных в него предоставили специалисты из Евросоюза, Китая и Великобритании. Они видят текущие риски в неожиданно быстром «взрослении» нейросетей, которые со времени публикации предыдущего аналогичного доклада в 2023 г. демонстрировали всё больше признаков самодостаточности.
Пиковым их достижением на данный момент стало создание ими без человеческого участия соцсети Moltbook, доступ в которую имеют только ИИ-агенты. В Moltbook эти агенты обсуждают в числе прочего вопросы, никак не вытекающие из их цифровой природы, и даже пытаются создать, по мнению автором доклада, нечто напоминающее собственную религию.
При этом рост «самосознания» LLMs никак не повлиял на качество их работы — оно остается весьма посредственным. ИИ способен решать сложнейшие математические задачи, но по-прежнему буксует, когда ему задают элементарные «бытовые» вопросы. Тем не менее исследователи полагают, что к 2030 г. ИИ усовершенствуется настолько, что оставит без работы живых разработчиков софта — достигнет способности к самовоспроизводству (что, к слову, является одним из признаков биологической жизни).
«Экзистенциальной угрозой» авторы доклада видят потенциальную возможность того, что нейросети без ведома человека могут получить доступ к оружию массового поражения либо создать какие-то собственные системы, способные нанести серьезный урон человеческой цивилизации.
Человек уже фактически стал биологическим видом, вступившим в симбиоз с искусственным интеллектом, заявил «Эксперту» главный управляющий партнер по развитию искусственного интеллекта ВЭБ.РФ Александр Павлов: «Тревожит не столько сам факт этой трансмутации, сколько то, что сами специалисты по ИИ уже перестали понимать алгоритмы, по которым действуют нейросети. ИИ всё лучше решает отраслевые задачи, но в случае непредсказуемых действий со стороны нейросетей их уже невозможно будет просто взять и отключить. Это будет сравнимо по последствиям с глобальным отключением электричества. Это будет выстрел самому себе в голову, отключением самих себя».
Главной задачей человечества является не допустить деградации управления нейросетями до уровня, когда стратегическая инициатива в этом «противостоянии» перейдет от людей к ИИ, предупредил в комментарии «Эксперту» доцент кафедры телекоммуникационных систем, начальник лаборатории «Безопасность инфотелекоммуникационных систем» Московского института электронной техники Александр Шарамок: «Симбиоз человечества с ИИ уже сегодня достиг того уровня, когда купировать угрозу со стороны нейросетей простым „отключением рубильника“ уже не получится: последствия могут оказаться еще разрушительнее. Это позволяет нейросетям в каком-то смысле — пока, во всяком случае, гипотетическом — держать людей в положении заложников ими же созданных технологий. Как это может выглядеть — мы видим на примере отключений интернета, из-за чего целые сектора экономики становятся неработоспособными».
Больше новостей читайте в нашем телеграм-канале @expert_mag