Интервью

Эксперты-разработчики обвинили корпорации в сокрытии рисков и препятствовании надзору в сфере ИИ

Эксперты-разработчики обвинили корпорации в сокрытии рисков и препятствовании надзору в сфере ИИ
Фото: DC Studio/Freepik
Группа нынешних и бывших сотрудников компаний, занимающихся разработкой искусственного интеллекта (ИИ), в  открытом письме выразили обеспокоенность по поводу корпоративных практик, которые не способствуют сокращению рисков, связанных с новой технологией, а наоборот, препятствуют эффективному надзору в этой сфере.

Под документом подписались 11 нынешних и бывших сотрудников OpenAI, финансируемой Microsoft, а также один нынешний и один бывший сотрудники Google DeepMind.

Они указали, что риски, связанные с неэффективной регуляцией в сфере ИИ, или ее полным отсутствием, варьируются от засилья дезинформации до усугубления существующего неравенства и даже «потери контроля над автономными системам ИИ, что потенциально может привести к исчезновению человечества». Авторы письма напоминают, что эти риски признали сами компании-разработчики, а также правительства по всему миру и независимые эксперты по ИИ.

«Многие из рисков, которые нас беспокоят, еще не регулируются», — заявили авторы письма.

Они призвали взять регуляцию этой сферы под контроль со стороны научного сообщества, политиков и общественности, поскольку финансовые мотивы крупных компаний-разработчиков препятствуют эффективной борьбе с рисками.

«Мы надеемся, что эти риски можно будет адекватно смягчить при достаточном внимании со стороны научного сообщества, политиков и общественности. Однако у компаний, занимающихся искусственным интеллектом, есть сильные финансовые стимулы избегать эффективного надзора, и мы не считаем, что специально разработанные структуры корпоративного управления могут изменить это», — говорится в письме.

«Компании, занимающиеся искусственным интеллектом, располагают закрытой информацией о возможностях и ограничениях своих систем, адекватности принимаемых ими защитных мер, уровнях и разновидностях различных рисков. Но в настоящее время они имеют очень скромные обязательства по обмену некоторой частью этой информации с правительствами, но не с гражданским обществом», — указали его авторы.

«Мы не думаем, что можно рассчитывать на то, что они поделятся закрытыми данными добровольно. Пока за этими корпорациями нет эффективного государственного надзора, нынешние и бывшие сотрудники являются теми немногими, кто может привлечь их к ответственности перед обществом. Тем не менее, широкие соглашения о конфиденциальности не позволяют нам высказывать наши опасения. Некоторые из нас обоснованно опасаются различных форм возмездия, учитывая историю подобных случаев в отрасли. Мы не первые, кто сталкивается с этими проблемами или говорит об этом», — сообщили они.

В заключении авторы письма призвали компании, разрабатывающие ИИ, придерживаться ряда практик, которые облегчат внешний надзор и контроль за рисками в сфере ИИ, а также не препятствовать сотрудникам осведомлять общественные и властные институты о таких рисках.

Последние материалы
Как стать «хабом» для международного бизнеса
Инвестиционная привлекательность Дальневосточного региона
Море притягивает удобрения
На Балтике наметился дефицит портовых мощностей
Дорогу осилит просящий
Дефицит средств на ремонт дорог в ближайшую трехлетку составит треть от потребного объема