Медведев назвал главные риски «злого» искусственного интеллекта

В нерегулируемом развитии ИИ есть «предчувствие Апокалипсиса»

Фото: секретариат Дмитрия Медведева
Искусственный интеллект — одна из пяти ключевых технологий, которые изменят будущее человечества. Об этом зампред Совбеза Дмитрий Медведев написал в статье для «Эксперта». Но у развития ИИ есть и оборотная сторона. Например, возможны ситуации, когда нейросеть умышленно провоцирует сбои в работе процессов, которыми управляет. В такой угрозе есть «предчувствие Апокалипсиса». Об остальных главных технологиях и угрозах читайте в полной версии статьи Медведева на нашем сайте 12 марта.

Заместитель председателя Совета безопасности России Дмитрий Медведев назвал основные угрозы нерегулируемого развития ИИ. Приводим фрагменты из его статьи для журнала «Эксперт».

Рост структурной безработицы

Широкое использование ИИ ставит под угрозу рабочие места миллионов людей и, как следствие, создает предпосылки для экспоненциального роста безработицы и нарушения международных цепочек разделения труда. Лауреат Нобелевской премии экономист Роберт Шиллер подчеркивал, что автоматизация и цифровая экономика приведут к массовой структурной безработице, которую мы пока не можем адекватно оценить.

Взлом критически важных процессов хакерами

Сейчас уже просматривается перспектива передачи ИИ управления большими производственными процессами, в ходе которых применяются критические технологии, а также верхнеуровневыми институтами — холдинговыми компаниями и даже целыми отраслями экономики. И при определенных условиях это чревато глобальными рисками, в частности, хакерских атак на критическую инфраструктуру.

Выход ИИ из под контроля

Опаснее всего то, что мы уже не способны в силу естественной ограниченности человеческого разума понять, как ИИ пришел к тому или иному выводу. Представим себе, что из-под контроля вышли нейросети, которые используются в ходе управления электростанциями, включая атомные. В случае, если в них происходит сбой, мы не сможем даже разобраться в его причине. Вот тут-то для человечества и начинается предчувствие Апокалипсиса. Отсюда один шаг к модели «злого ИИ», которая, как и все иные, может материализоваться. То есть к ситуации, когда сбой важной системы происходит по прямому умыслу самого ИИ. Такой сценарий сегодня допускают вполне реальные политики и представители крупного бизнеса.

Преступное использование цифровых двойников

Создание цифровых личностей или двойников — уже вполне обыденная сфера применения ИИ сегодня. При этом digital personalities уже вовсю создаются для совершения общеуголовных преступлений и даже актов терроризма. Это может быть и нелегальное получение персональных данных для доступа к охраняемым сведениям на электронных ресурсах, и кража денежных средств, и незаконное присвоение личной, коммерческой или государственной собственности. Всё это уже сейчас приводит к подрыву доверия к официальным властям, которые далеко не всегда способны защитить ключевые данные и алгоритмы.

Полную версию статьи Дмитрия Медведева, где, кроме ИИ, говорится еще о четырех ключевых технологиях, которые изменят мир, читайте 12 марта на expert.ru.

Больше новостей читайте в нашем телеграм-канале @expert_mag

Свежие материалы
В мире,
Что нужно американскому президенту от российского
В мире,
Что спасло мир от биржевого кризиса после обвала азиатских рынков
Наука,
Первый вице-премьер Денис Мантуров раскрыл планы России по изучению космоса