КиберпанкДеталиТехнологии

ЕС предложил первую в истории правовую базу для регулирования искусственного интеллекта. Есть ли что-то подобное в других странах

Новые правила запретят использование ИИ для формирования социального рейтинга и нанесения людям физического вреда.

По мнению правозащитников, предложенный регламент оставляет немало лазеек для правоохранительных органов.

Еврокомиссия опубликовала проект правовой базы для регулирования всех сфер применения искусственного интеллекта (ИИ). Об этом пишет The Verge. На официальной странице проекта эту правовую базу для регулирования ИИ назвали «первой в истории». 

  • Предложенные правила регламентируют использование широкого спектра технологий: от программного обеспечения (ПО) для беспилотных автомобилей до нейросетей, необходимых для проверки новых сотрудников. 
  • Кроме того, если законопроект примут, то за его нарушение власти ЕС смогут наказывать компании штрафами до 6% от их доходов по всему миру. 
  • По словам еврокомиссара Маргарет Вестагер, первая правовая база в сфере ИИ позволит сделать Европу мировым лидером в разработке безопасного, надежного и «ориентированного на человека» искусственного интеллекта.

Как устроен предложенный свод правил

Одним из наиболее важных компонентов регламента является запрет четырех конкретных сценариев использования ИИ на всей территории ЕС. 

  • Так, запрещено использовать системы биометрической идентификации в общественных местах в режиме реального времени. В частности, к ним относятся системы распознавания лиц. Исключением может быть применение таких технологий для поиска преступников или подозреваемых в нарушении закона, за которое грозит от 3 лет тюрьмы. Однако в этих случаях наблюдение с помощью искусственного интеллекта должно быть санкционировано судом. По мнению экспертов, такие формулировки оставляют силовикам множество лазеек. Например, правило не регулирует применение ИИ для распознавания лиц вне реального времени — по фото или видео.
  • К другим запрещенным сферам применения технологии ИИ относится создание социальных рейтингов (например, по уровню доходов), причинение физического вреда людям и манипулирование их поведением с помощью подсознательных сигналов. 

Остальное ПО на основе искусственного интеллекта разделено на 3 группы риска. 

  • В наименее рискованную категорию входят фильтры спама. 
  • В группу «ограниченного риска» входят чат-боты для покупки билетов или получения информации. Согласно правилам, их будут более тщательно контролировать. 
  • К ИИ с высоким риском законотворцы отнесли технологии, которые способны влиять на материальные аспекты жизни людей. В их числе алгоритмы, используемые для оценки кредитных историй, программы управления автономными транспортными средствами и медицинские устройства. К таким программам будут предъявляться жесткие требования, в частности — качественное обучение ИИ во избежание предвзятого восприятия людей по внешним признакам, внедрение человеческого контроля и наличие подробных инструкций по использованию. За их развитием также установят особое наблюдение, в том числе с помощью национальных регуляторов. 
  • Кроме того, все высокорисковые системы должны быть проиндексированы в специальной базе данных Евросоюза. 

Правозащитники отметили, что Еврокомиссия оставила лазейку не только в случае биометрической идентификации. По их словам, в правилах отсутствует необходимый запрет на использование ИИ для определения пола и сексуальной ориентации, а также не прописан строгий контроль за полицейским ПО, которое «нередко подвержено расовым предубеждениям». 

Как ИИ регулируют в других странах 

  • Действующая в Китае «Программа развития искусственного интеллекта» декларирует использование ИИ для обеспечения внутренней и внешней безопасности страны. В числе прочего под этим понимается развитие «системы социального доверия» для поддержания в стране социально-политической стабильности. Она уже функционирует и предусматривает технологию оценки граждан, компаний и НКО и присвоение им рейтинга на основании данных о социальном поведении, в том числе в интернете. Обладателям высокого рейтинга полагаются социальные и экономические льготы, владельцам низкого — ограничения. 
  • В 2020 году в России утвердили концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники. Она определяет условия, позволяющие активно развиваться отечественным технологиям при обеспечении безопасности для граждан. В частности, запрещает использование систем ИИ, которые самостоятельно принимают решения о нанесении вреда человеку, а также обязывает сертифицировать ПО и технологии, взаимодействующие с людьми. Концепция рассчитана на период до 2024 года, после которого ее планируется продлить или обновить.

Дела о незаконном использовании искусственного интеллекта 

Ранее у жителей и властей разных стран неоднократно возникали претензии к законности и этичности использования искусственного интеллекта. 

  • В феврале шведское Управление по защите конфиденциальности (IMY) оштрафовало полицию страны за незаконное использование программного обеспечения для распознавания лиц Clearview AI. В ведомстве сообщили, что полиция «незаконно обработала биометрические данные для распознавания лиц, а также не смогла провести оценку воздействия на защиту данных, которая требуется в случае такой обработки». Кроме того, было установлено, что несколько сотрудников полиции использовали программу без предварительного разрешения на обработку персональных данных со стороны их обладателей.
  • В 2020 году продажу технологий распознавания лиц силовикам приостановили такие американские ИТ-компании, как IBM, Microsoft и Amazon. По их мнению, подобные разработки в руках полицейских могут ущемлять права и свободы граждан.
  • В августе 2020 года суд признал незаконным использование технологии автоматического распознавания лиц (AFR) полицией Южного Уэльса в Великобритании. Это решение было принято из-за отсутствия четких указаний, где можно использовать AFR и кого можно включить в список для отслеживания.
Копировать ссылкуСкопировано