Интервью

Эксперты-разработчики обвинили корпорации в сокрытии рисков и препятствовании надзору в сфере ИИ

Эксперты-разработчики обвинили корпорации в сокрытии рисков и препятствовании надзору в сфере ИИ
Фото: DC Studio/Freepik
Группа нынешних и бывших сотрудников компаний, занимающихся разработкой искусственного интеллекта (ИИ), в  открытом письме выразили обеспокоенность по поводу корпоративных практик, которые не способствуют сокращению рисков, связанных с новой технологией, а наоборот, препятствуют эффективному надзору в этой сфере.

Под документом подписались 11 нынешних и бывших сотрудников OpenAI, финансируемой Microsoft, а также один нынешний и один бывший сотрудники Google DeepMind.

Они указали, что риски, связанные с неэффективной регуляцией в сфере ИИ, или ее полным отсутствием, варьируются от засилья дезинформации до усугубления существующего неравенства и даже «потери контроля над автономными системам ИИ, что потенциально может привести к исчезновению человечества». Авторы письма напоминают, что эти риски признали сами компании-разработчики, а также правительства по всему миру и независимые эксперты по ИИ.

«Многие из рисков, которые нас беспокоят, еще не регулируются», — заявили авторы письма.

Они призвали взять регуляцию этой сферы под контроль со стороны научного сообщества, политиков и общественности, поскольку финансовые мотивы крупных компаний-разработчиков препятствуют эффективной борьбе с рисками.

«Мы надеемся, что эти риски можно будет адекватно смягчить при достаточном внимании со стороны научного сообщества, политиков и общественности. Однако у компаний, занимающихся искусственным интеллектом, есть сильные финансовые стимулы избегать эффективного надзора, и мы не считаем, что специально разработанные структуры корпоративного управления могут изменить это», — говорится в письме.

«Компании, занимающиеся искусственным интеллектом, располагают закрытой информацией о возможностях и ограничениях своих систем, адекватности принимаемых ими защитных мер, уровнях и разновидностях различных рисков. Но в настоящее время они имеют очень скромные обязательства по обмену некоторой частью этой информации с правительствами, но не с гражданским обществом», — указали его авторы.

«Мы не думаем, что можно рассчитывать на то, что они поделятся закрытыми данными добровольно. Пока за этими корпорациями нет эффективного государственного надзора, нынешние и бывшие сотрудники являются теми немногими, кто может привлечь их к ответственности перед обществом. Тем не менее, широкие соглашения о конфиденциальности не позволяют нам высказывать наши опасения. Некоторые из нас обоснованно опасаются различных форм возмездия, учитывая историю подобных случаев в отрасли. Мы не первые, кто сталкивается с этими проблемами или говорит об этом», — сообщили они.

В заключении авторы письма призвали компании, разрабатывающие ИИ, придерживаться ряда практик, которые облегчат внешний надзор и контроль за рисками в сфере ИИ, а также не препятствовать сотрудникам осведомлять общественные и властные институты о таких рисках.

Последние материалы
Новые санкции против России не помешали ее внешней торговле
Экономика,
Сальдо счета текущих операций РФ в 2024 г. выросло
Тяжелые ракеты меняют нагрузку
Технологии,
Установлен рекорд по запускам мощными носителями низкоорбитальных спутников
Корпорации возвращают равные права
В мире,
Американский крупный бизнес предугадал политику нового президента