Спикер нижней палаты обратил внимание на ряд трагических историй, произошедших в США, которые были связаны с использованием «одной конкретной нейросети». На фоне этого разработчики чат-бота пообещали внедрить функцию родительского контроля и возможность добавить контакт доверенного лица для связи в чрезвычайных ситуациях.
«Правильно было бы, не дожидаясь трагедий, внедрить такие механизмы создателям и других нейромоделей», — отметил Вячеслав Володин.
Он напомнил, что ИИ «не может быть полностью объективен» и, как выяснилось может «содержать скрытые угрозы». По мнению спикера Госдумы, «излишняя цифровизация и отсутствие контроля» могут быть опасны.
В ноябре Госдума планирует обсудить вопрос внедрения технологий ИИ и цифровизации, отметил Вячеслав Володин. Он подчеркнул важность контроля и безопасности для защиты граждан от негативных последствий использования нейросетей.
Минцифры уже разработало проект концепции развития регулирования в сфере технологий ИИ до 2030 года. Ведомство предлагает пять принципов регулирования ИИ: человекоориентированный подход, доверенность технологий, технологический суверенитет, уважение автономии и свободы воли человека, а также запрет вреда и антропоморфизации технологий, писали «Ведомости» со ссылкой на документ.
Внедрение функции родительского контроля в ChatGPT 26 августа анонсировала OpenAI. Разработчик чат-бота также планирует предоставить подросткам возможность назначать доверенные контакты для экстренной связи в кризисных ситуациях. Заявление OpenAI было сделано на фоне ряда судебных исков родителей, обвиняющих ChatGPT в доведении детей до причинения себе вреда и суицида.
Больше новостей читайте в нашем телеграм-канале @expert_mag