Под документом подписались 11 нынешних и бывших сотрудников OpenAI, финансируемой Microsoft, а также один нынешний и один бывший сотрудники Google DeepMind.
Они указали, что риски, связанные с неэффективной регуляцией в сфере ИИ, или ее полным отсутствием, варьируются от засилья дезинформации до усугубления существующего неравенства и даже «потери контроля над автономными системам ИИ, что потенциально может привести к исчезновению человечества». Авторы письма напоминают, что эти риски признали сами компании-разработчики, а также правительства по всему миру и независимые эксперты по ИИ.
«Многие из рисков, которые нас беспокоят, еще не регулируются», — заявили авторы письма.
Они призвали взять регуляцию этой сферы под контроль со стороны научного сообщества, политиков и общественности, поскольку финансовые мотивы крупных компаний-разработчиков препятствуют эффективной борьбе с рисками.
«Мы надеемся, что эти риски можно будет адекватно смягчить при достаточном внимании со стороны научного сообщества, политиков и общественности. Однако у компаний, занимающихся искусственным интеллектом, есть сильные финансовые стимулы избегать эффективного надзора, и мы не считаем, что специально разработанные структуры корпоративного управления могут изменить это», — говорится в письме.
«Компании, занимающиеся искусственным интеллектом, располагают закрытой информацией о возможностях и ограничениях своих систем, адекватности принимаемых ими защитных мер, уровнях и разновидностях различных рисков. Но в настоящее время они имеют очень скромные обязательства по обмену некоторой частью этой информации с правительствами, но не с гражданским обществом», — указали его авторы.
«Мы не думаем, что можно рассчитывать на то, что они поделятся закрытыми данными добровольно. Пока за этими корпорациями нет эффективного государственного надзора, нынешние и бывшие сотрудники являются теми немногими, кто может привлечь их к ответственности перед обществом. Тем не менее, широкие соглашения о конфиденциальности не позволяют нам высказывать наши опасения. Некоторые из нас обоснованно опасаются различных форм возмездия, учитывая историю подобных случаев в отрасли. Мы не первые, кто сталкивается с этими проблемами или говорит об этом», — сообщили они.
В заключении авторы письма призвали компании, разрабатывающие ИИ, придерживаться ряда практик, которые облегчат внешний надзор и контроль за рисками в сфере ИИ, а также не препятствовать сотрудникам осведомлять общественные и властные институты о таких рисках.