• USD Бирж 1.08 -10.24
  • EUR Бирж 12.63 -85.97
  • CNY Бирж 28.66 +-16.08
  • АЛРОСА ао 78.91 +-0.19
  • СевСт-ао 1977 -12
  • ГАЗПРОМ ао 156.52 -1
  • ГМКНорНик 152.16 +-0.04
  • ЛУКОЙЛ 7701.5 -0.5
  • НЛМК ао 253.36 -0.86
  • Роснефть 586.15 +-2.65
  • Сбербанк 314.9 +-0.11
  • Сургнфгз 36.535 -0.42
  • Татнфт 3ао 730.3 +0
  • USD ЦБ 91.63 91.82
  • EUR ЦБ 98.85 98.95
Эксперт меняется
Cобытия

Игры с разумом

В мире
Игры с разумом
Фото: VCG/Visual China Group/ТАСС
Еврокомиссия разработала первый в мировой истории законопроект, регулирующий работу и порядок использования искусственного интеллекта (ИИ). В полную силу этот закон заработает только через два года, а следовать ему де-факто придется разработчикам из всех стран, включая Россию. Вот только сам ИИ развивается с такой скоростью, что через два года нормы закона уже могут утратить актуальность.

Контроль над машиной

Европейская Комиссия после более чем двухлетних обсуждений и 38-часового финального заседания утвердила базовый законопроект о регулировании разработок и использования искусственного интеллекта. Документ, так и озаглавленный — «Закон об искусственном интеллекте» (AIA) — опубликован на официальном сайте Еврокомиссии.

Законопроект был впервые вынесен на рассмотрение в апреле 2021 года. Он еще должен быть одобрен Европарламентом и Советом Европы, и вступит в силу через 20 дней после официальной публикации.

Предполагается, что вступать в силу закон будет частями: его запретительные статьи заработают через полгода после окончательного утверждения, а целиком AIA (в том виде, в каком он к тому времени будет выглядеть) начнет действовать через два года. До того момента AIA остается скорее политической декларацией, чем юридическим документом, обязательным к исполнению.

В переходный период Еврокомиссия собирается убеждать разработчиков ИИ (не только в ЕС, но и во всем мире) добровольно согласиться с требованиями закона. Также в течение этого времени евродепутаты будут постоянно править его текст с учетом поступающих предложений и замечаний от игроков этой сферы, а также от правительств стран-членов G7, G20, ОЭСР и профильных комитетов ООН.

Комментируя принятие базового законопроекта, президент Еврокомиссии Урсула фон дер Ляйен подчеркнула, что ИИ наряду с неоспоримыми достоинствами таит в себе и опасности для человечества.

«ИИ уже сейчас влияет на нашу каждодневную жизнь, и это только начало. Его широкое и ответственное применение сулит огромную пользу экономике и обществу. Вместе с тем, требуется законодательно зафиксировать и риски, которые несут новые технологии, гарантировать безопасность и права людей и компаний»— заявила она.

Глава ЕК подчеркнула, что европейский закон является первым в мире, регулирующим использование ИИ, и что AIA станет эталоном для выработки общемировых правил дальнейшего развития «разумных» машин.

Необходимость принятия четких правил в области ИИ стала остро осознаваться политиками по мере накопления данных о том, что бесконтрольное распространение этой технологии грозит человечеству утратой контроля над информационными системами.

Эксперты указывают на такие возможные оборотные стороны использования нейросетей, чат-ботов и других технологий ИИ как распространение очень похожей на правду дезинформации, перехват компьютерами управления потенциально опасными производственными процессами и всевозможные угрозы национальной и международной безопасности, если ИИ возьмет под контроль принятие стратегических решений.

Закон AIA обяжет разработчиков софта для ИИ сделать свою работу максимально прозрачной для государственных органов, а пользователей — следовать жестким правилам при употреблении таких программ. В частности, законопроект требует:

  • четко указывать, что изображения, сгенерированные технологией Stable Diffusion и им подобными (так называемые deepfake), не являются реальными фотографиями, а чат-боты — живыми людьми;
  • разрешить применение технологии распознавания лиц исключительно правоохранительным органам;
  • обеспечить обязательный человеческий контроль за ИИ, применяемом на опасных производствах, в медицине, юриспруденции, на транспорте;
  • ограничить применение ИИ при профилировании людей (например, выдачу рекомендаций при приеме на работу или в вузы), основанном на биометрии, внешнем виде, эмоциональных характеристиках и прочих сугубо человеческих качествах кандидатов;
  • лишить ИИ возможности манипулировать поведением человека (например, через гаджеты, могущие советовать владельцу, как поступать в той или иной ситуации);
  • запретить нейросетям делегировать полномочия другим нейросетям, тем самым создавая закрытые от человеческого контроля системы;
  • запретить применение ИИ для социального рейтингования с целью выдачи рекомендаций государственным органам.

Компаниям-нарушителям требований AIA грозят штрафы от €7.5 млн до €35 млн либо в размере от 3% до 7% годового дохода (что окажется выше).

Угроза бесконтрольного распространения опасных компьютерных технологий сравнима с угрозой климатических изменений
Угроза бесконтрольного распространения опасных компьютерных технологий сравнима с угрозой климатических изменений. Фото: Zuma/TASS

Особое мнение ИИ

Приветствуя «историческое решение» Евросоюза, эксперты тем не менее призывают не впадать в эйфорию по этому поводу. Они указывают, что качество законопроекта оставляет желать лучшего (среди скептиков, например, глава Европейского отделения Ассоциации производителей компьютеров и систем коммуникации Даниэль Фридлендер).

Во-первых, за время, остающееся до вступления в силу AIA, технологии могут уйти вперед настолько, что закон устареет еще до того, как начнет действовать. Самая популярная разработка в области ИИ, GhatGPT, показывает такие темпы самообучения, что никакой законодательный или регулирующий орган не в состоянии успеть за изменениями этой технологии.

Такое развитие событий доказал процесс принятия собственно AIA: законодатели несколько раз за два года переписывали документ — не только из-за разногласий в деталях между 27-ю членами ЕС, но и чтобы угнаться за все время возникающими новшествами. В самом тексте законопроекта сказано, что редакторская работа над ним будет продолжаться до последней минуты.

О том, что поправки в закон, в том числе концептуальные, неизбежно будут вноситься, «Эксперту» подтвердил бывший руководитель отдела разработок АО «Сбербанк Технологии» (позднее — ведущий разработчик в «Yandex Finance») Сергей Владимиров.

«Сбербанк занимался разработками в сфере ИИ задолго до того, как утвердился сам этот термин. Тогда это называлось „машинным обучением“, но суть была той же самой — „Сбер“ старался собрать персональные данные как можно большего числа граждан, чтобы обеспечить максимально надежный credit scoring. Уверен, что бы не придумали законодатели, банки никогда не откажутся от этой технологии. Они будут яростно лоббировать поправки в AIA и аналогичные национальные законы, которые вывели бы из-под запрета использование ИИ в финансовой сфере, потому что это напрямую влияет на устойчивость банков»— считает он.

По словам Владимирова, хотя формально российские компании не обязаны выполнять требования европейского законодательства, все они по факту это будут делать, поскольку требования носят не столько технолого-юридический, сколько морально-этический характер, единый для всех стран.

«Например, есть общемировое понимание у разработчиков — не встраивать в программные коды элементов детской порнографии, и т.д. Для этого не требуется законодательного запрета, потому что компании обычно не держат в штате своих IT-департаментов полных дегенератов. Точно так же компании добровольно, а не из-за опасения штрафов, стараются не пускать обучение ИИ на самотек, так как понимают свою ответственность за последствия бесконтрольного развития таких технологий», — говорит он.

Несмотря на сознательность большинства разработчиков ИИ, никакой закон не в состоянии предусмотреть все лазейки, которыми наверняка захотят воспользоваться компании, в чьих интересах, чтобы ИИ проникал в каждую щель. Поэтому во многих странах уже принимаются меры по регулированию ИИ на национальном уровне. Однако одновременно нарастает и сопротивление промышленного лобби, видящего в регулировании этой сферы угрозу своим прибылям, достигающим, по оценкам аналитиков McKinsey & Co, триллионов долларов.

Считать, что после нынешнего решения Еврокомиссии человечество может выдохнуть, преждевременно, сказал «Эксперту» гендиректор компании Zecurion (специализируется на кибербезопасности) Алексей Раевский.

«Одно из главных сомнений в эффективности применения AIA состоит в том, что до сих пор не существует универсально признанного определения, что такое, собственно, искусственный интеллект. Принадлежность той или иной разработки к категории ИИ определяется в целом по общепризнанным в среде разработчиков понятиям. Поэтому, если дело дойдет до штрафов и судов, юристы любой компании могут настаивать, что данный продукт не использует ИИ. И доказать обратное при отсутствии юридически согласованной дефиниции этого термина будет затруднительно», — объясняет он.

Кроме того, даже прогрессивное европейское законодательство не действует за пределами ЕС, соответственно, разработчики ИИ из других стран (сегодня это в первую очередь США, Япония, Россия, Китай, Великобритания) формально не обязаны ему подчиняться. Кстати, при обсуждении AIA рядом парламентариев было высказано опасение, что его принятие ослабит европейских разработчиков ПО по сравнению с американскими конкурентами OpenAI, Microsoft и Google.

Алексей Раевский подчеркивает, что трансграничный по природе характер любых интернет-технологий ставит под вопрос и возможность европейских правоохранительных органов эффективно пресекать нарушения AIA, как это им не особо удается с похожими законами — например, о защите персональных данных.

«Помимо простых для отслеживания ситуаций, когда европейский разработчик продает свои технологии европейскому же клиенту с нарушениями закона, наверняка будут конфигурации, когда компания из ЕС предлагает услуги в области ИИ пользователям вне Евросоюза либо участвует в каком-то проекте по ИИ в третьих странах. Здесь возникает широкое поле для вольной трактовки AIA или вообще для его игнорирования», — предупреждает эксперт.

В этом смысле угроза бесконтрольного распространения опасных компьютерных технологий сравнима с угрозой климатических изменений — с ней невозможно справиться на национальном или даже на блоковом уровне. При этом фактический провал последней климатической конференции СОР28 в Дубае показывает, с каким трудом достигается консенсус даже по вопросам, одинаково злободневным для всех стран мира.

Материалы по теме:
В мире, 7 мая 17:00
Почти 800 млн квалифицированных работников по всему миру ищут работу за рубежом
В мире, 7 мая 11:45
Все больше стран ограничивают экспорт сельскохозяйственной продукции
В мире, 6 мая 17:00
Мировой спрос на драгоценный металл устойчиво растет
В мире, 18 апр 14:41
Как риск экспроприации тормозит инновационное развитие
Свежие материалы
«Яндекс» равен Yandex
Финансы,
Российские инвесторы поменяют акции в пропорции 1:1
Один дом хорошо, а два лучше
Недвижимость,
Более половины жителей городов владеют дачами
Ипотека меняет ставки
Недвижимость,
Как отмена льготных кредитов может повлиять на строительную отрасль