Перейти к материалам
Камера наблюдения на вокзале в Париже
истории

В ЕС написали первый в мире закон, регулирующий применение ИИ (в том числе ChatGPT и Midjourney) «Социальные рейтинги» — под запретом, распознавание лиц — только с разрешения суда

Источник: Meduza
Камера наблюдения на вокзале в Париже
Камера наблюдения на вокзале в Париже
Adrienne Surprenant / Bloomberg / Getty Images

ЕС готовится ввести первый в мире закон, регулирующий использование искусственного интеллекта: 11 мая профильные комитеты Европарламента поддержали проект, за которым закрепилось название AI Act. Если документ примут, то во всех странах Евросоюза введут ограничения на системы распознавания лиц в общественных местах, прогнозирование правонарушений и социальный рейтинг на основе ИИ. «Медуза» подробнее рассказывает об этом законопроекте.

Европейский союз решил зарегулировать искусственный интеллект еще два года назад, в апреле 2021 года. Маргрет Вестагер, вице-председатель Еврокомиссии, тогда объясняла это необходимостью «доверять ИИ» и «проложить путь к этичному применению технологий во всем мире», в то время как «на карту поставлены безопасность и права граждан».

ЕС при этом не собирался полностью запрещать развитие искусственного интеллекта — и, наоборот, подчеркивал, что ИИ обладает «огромным потенциалом в здравоохранении, транспорте, энергетике, сельском хозяйстве, туризме и кибербезопасности».

Поначалу страны Евросоюза неспешно обсуждали варианты законопроекта, проводили исследования (например, об этичности использования ИИ и соблюдении прав человека) и вели дискуссии со специалистами. Но затем — на фоне стремительного развития технологий и гонки корпораций в области генеративного искусственного интеллекта — еврочиновникам пришлось поторопиться и в последний момент добавить в документ важнейшие поправки.

Вот что за несколько дней до голосования сказал агентству AP один из инициаторов законопроекта, румынский депутат Европарламента Драгош Тудораш:

Если еще [два года назад] кто-то сомневался, нужно ли нам вообще [какое-то регулирование искусственного интеллекта], то сейчас, я думаю, [никаких] сомнений больше нет.

11 мая два комитета, которые отвечают за регулирование ИИ, — по внутреннему рынку и защите прав потребителей, а также по гражданским свободам — одобрили AI Act. Проект поддержали 84 евродепутата, семь выступили против, 12 воздержались. Хотя новые стандарты еще далеки от вступления в силу, прошедшее голосование означает огромный шаг вперед для законодателей — особенно в текущей версии документа.

Для полиции и судов использование ИИ ограничат. А некоторые сервисы запретят вовсе

Категории риска

Евродепутаты предлагают разделять все системы, основанные на искусственном интеллекте, на четыре категории по риску: минимальный (или вообще его отсутствие), ограниченный, высокий и неприемлемый.

ИИ-системы с «минимальным» риском — под эту категорию должно подходить большинство инструментов, например игры или спам-фильтры, — будут работать без ограничений. Если система получит статус «ограниченного» риска (вероятно, чат-бот ChatGPT или фотогенератор Midjourney), то его создатели должны прежде всего соблюдать требования о «прозрачности»: предполагается, что пользователь должен знать, что перед ним — условно — дипфейк или созданный нейросетью текст.

«Высокую» степень риска ЕС видит в более специализированных ИИ-системах. Еврочиновники приводят в пример правосудие (например, если ИИ оценивает доказательства сторон), здравоохранение (медицинские приборы), транспортную сферу (беспилотные автомобили), образование (имеются в виду ситуации, когда ИИ определяет, кто заслуживает поступить, а кто нет), трудоустройство (к примеру, автоматическая сортировка резюме), госуслуги и контроль над миграцией (в том числе оценка подлинности документов). Все такие сервисы, как предполагается, не попадут к конечному пользователю, пока не пройдут самую тщательную оценку — и не будут гарантировать, что дают крайне точный и безопасный для человека результат.

Системы, которые в ЕС сочтут «неприемлемыми», просто запретят из-за угроз безопасности. Под эту категорию подходят ИИ-сервисы для выставления «социального рейтинга» на основе благонадежности граждан (да, как в Китае), а также для манипуляций (в пример приводятся игрушки с голосовым ассистентом, провоцирующие детей на «опасное поведение»).

Распознавание лиц

«Высокую» степень риска в ЕС получат системы «дистанционной биометрической идентификации» — это означает, что к их создателям предъявят самые строгие требования.

Под тотальным запретом окажется разделение с помощью ИИ-биометрии по полу, расе, этнической принадлежности, гражданству, религии и политическим взглядам. Сбор биометрических данных из соцсетей и с камер наблюдения для создания баз, по которым потом можно было распознавать лица, тоже будет нелегален.

Хотя распознавание лиц на улицах в большинстве случаев запрещено, ЕС все-таки допускает несколько исключений. Например, если нужно найти жертву преступления (допустим, пропавшего ребенка), предотвратить теракт или отыскать подозреваемого в «серьезном уголовном преступлении». В этих случаях полиции понадобится разрешение суда — а еще придется указать конкретные временные сроки и географию поиска, а также используемые базы персональных данных.

Системы распознавания эмоций — такие сервисы идентифицируют мимику, вычисляя, например, разочарован ли человек или взбешен, — тоже подпадут под значительные ограничения. Их нельзя будет использовать правоохранительным органам, пограничникам, работодателям и образовательным учреждениям.

Прогнозирование преступлений

Для полицейских в странах ЕС хотят запретить основанные на искусственном интеллекте системы предиктивной аналитики — инструменты, с помощью которых на основе статистики и ее анализа определяют, кто, где и когда совершит преступление. С помощью этого полицейские, например, выявляют мошеннические схемы, находят связи между преступниками и определяют, в каком именно месте риск правонарушения выше.

Одни критики предиктивных систем не видят, чтобы те приносили полицейским существенную пользу, а другие отмечают, что алгоритмы непрозрачны даже для самих полицейских — и могут «научиться» предвзятости к той или иной части жителей.

Один из самых известных примеров таких компаний

Самый загадочный IT-стартап современности Palantir вышел на биржу «Медуза» рассказывает историю компании, которая помогла США ликвидировать «террориста номер один» Осаму бин Ладена

Один из самых известных примеров таких компаний

Самый загадочный IT-стартап современности Palantir вышел на биржу «Медуза» рассказывает историю компании, которая помогла США ликвидировать «террориста номер один» Осаму бин Ладена

В нынешней версии законопроекта компаниям в ЕС за нарушения грозят крупные административные штрафы — вплоть до 40 миллионов евро или 7% от общего годового оборота за предыдущий финансовый год (в зависимости от того, что больше).

Новые ограничения пока не вступили в силу. Вот что для этого должно произойти

В законопроект об искусственном интеллекте еще могут внести поправки. Вот какие этапы должен пройти документ, чтобы вступить в силу:

  • июнь 2023 года: голосование в Европарламенте;
  • июль 2023-го: трехсторонние переговоры в Совете Евросоюза (там сейчас председательствует Швеция, с июля — Испания) с участием евродепутатов, Еврокомиссии и стран — государств ЕС;
  • до конца 2023-го: принятие итоговой версии законопроекта.

Трехсторонние переговоры — или трилоги — рискуют затянуться. Сара Чандер из Ассоциации европейских цифровых прав в разговоре с изданием The Verge предположила, что некоторые страны — члены ЕС выступят против запрета на биометрию и систему предиктивной аналитики в полиции — и будут утверждать, что это якобы необходимо для борьбы с преступностью.

Выше «Медуза» указала предварительные даты, намеченные ЕС, но они могут меняться: к примеру, изначально профильные комитеты Евросоюза должны были одобрить законопроект не в мае, а в феврале-марте. Предположительно, закон рассчитывают принять не позже мая 2024 года, когда намечены следующие выборы в Европарламент.

История человека, предупреждающего нас всех об опасности ИИ

«Крестный отец ИИ» Джеффри Хинтон уволился из Google, раскритиковал компанию за неэтичность — и теперь предупреждает мир об опасности искусственного интеллекта Вот его история

История человека, предупреждающего нас всех об опасности ИИ

«Крестный отец ИИ» Джеффри Хинтон уволился из Google, раскритиковал компанию за неэтичность — и теперь предупреждает мир об опасности искусственного интеллекта Вот его история

«Медуза»