Еврокомиссия опубликовала проект правовой базы для регулирования всех сфер применения искусственного интеллекта (ИИ). Об этом пишет The Verge. На официальной странице проекта эту правовую базу для регулирования ИИ назвали «первой в истории».
- Предложенные правила регламентируют использование широкого спектра технологий: от программного обеспечения (ПО) для беспилотных автомобилей до нейросетей, необходимых для проверки новых сотрудников.
- Кроме того, если законопроект примут, то за его нарушение власти ЕС смогут наказывать компании штрафами до 6% от их доходов по всему миру.
- По словам еврокомиссара Маргарет Вестагер, первая правовая база в сфере ИИ позволит сделать Европу мировым лидером в разработке безопасного, надежного и «ориентированного на человека» искусственного интеллекта.
Как устроен предложенный свод правил
Одним из наиболее важных компонентов регламента является запрет четырех конкретных сценариев использования ИИ на всей территории ЕС.
- Так, запрещено использовать системы биометрической идентификации в общественных местах в режиме реального времени. В частности, к ним относятся системы распознавания лиц. Исключением может быть применение таких технологий для поиска преступников или подозреваемых в нарушении закона, за которое грозит от 3 лет тюрьмы. Однако в этих случаях наблюдение с помощью искусственного интеллекта должно быть санкционировано судом. По мнению экспертов, такие формулировки оставляют силовикам множество лазеек. Например, правило не регулирует применение ИИ для распознавания лиц вне реального времени — по фото или видео.
- К другим запрещенным сферам применения технологии ИИ относится создание социальных рейтингов (например, по уровню доходов), причинение физического вреда людям и манипулирование их поведением с помощью подсознательных сигналов.
Остальное ПО на основе искусственного интеллекта разделено на 3 группы риска.
- В наименее рискованную категорию входят фильтры спама.
- В группу «ограниченного риска» входят чат-боты для покупки билетов или получения информации. Согласно правилам, их будут более тщательно контролировать.
- К ИИ с высоким риском законотворцы отнесли технологии, которые способны влиять на материальные аспекты жизни людей. В их числе алгоритмы, используемые для оценки кредитных историй, программы управления автономными транспортными средствами и медицинские устройства. К таким программам будут предъявляться жесткие требования, в частности — качественное обучение ИИ во избежание предвзятого восприятия людей по внешним признакам, внедрение человеческого контроля и наличие подробных инструкций по использованию. За их развитием также установят особое наблюдение, в том числе с помощью национальных регуляторов.
- Кроме того, все высокорисковые системы должны быть проиндексированы в специальной базе данных Евросоюза.
Правозащитники отметили, что Еврокомиссия оставила лазейку не только в случае биометрической идентификации. По их словам, в правилах отсутствует необходимый запрет на использование ИИ для определения пола и сексуальной ориентации, а также не прописан строгий контроль за полицейским ПО, которое «нередко подвержено расовым предубеждениям».
Как ИИ регулируют в других странах
- Действующая в Китае «Программа развития искусственного интеллекта» декларирует использование ИИ для обеспечения внутренней и внешней безопасности страны. В числе прочего под этим понимается развитие «системы социального доверия» для поддержания в стране социально-политической стабильности. Она уже функционирует и предусматривает технологию оценки граждан, компаний и НКО и присвоение им рейтинга на основании данных о социальном поведении, в том числе в интернете. Обладателям высокого рейтинга полагаются социальные и экономические льготы, владельцам низкого — ограничения.
- В 2020 году в России утвердили концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники. Она определяет условия, позволяющие активно развиваться отечественным технологиям при обеспечении безопасности для граждан. В частности, запрещает использование систем ИИ, которые самостоятельно принимают решения о нанесении вреда человеку, а также обязывает сертифицировать ПО и технологии, взаимодействующие с людьми. Концепция рассчитана на период до 2024 года, после которого ее планируется продлить или обновить.
Дела о незаконном использовании искусственного интеллекта
Ранее у жителей и властей разных стран неоднократно возникали претензии к законности и этичности использования искусственного интеллекта.
- В феврале шведское Управление по защите конфиденциальности (IMY) оштрафовало полицию страны за незаконное использование программного обеспечения для распознавания лиц Clearview AI. В ведомстве сообщили, что полиция «незаконно обработала биометрические данные для распознавания лиц, а также не смогла провести оценку воздействия на защиту данных, которая требуется в случае такой обработки». Кроме того, было установлено, что несколько сотрудников полиции использовали программу без предварительного разрешения на обработку персональных данных со стороны их обладателей.
- В 2020 году продажу технологий распознавания лиц силовикам приостановили такие американские ИТ-компании, как IBM, Microsoft и Amazon. По их мнению, подобные разработки в руках полицейских могут ущемлять права и свободы граждан.
- В августе 2020 года суд признал незаконным использование технологии автоматического распознавания лиц (AFR) полицией Южного Уэльса в Великобритании. Это решение было принято из-за отсутствия четких указаний, где можно использовать AFR и кого можно включить в список для отслеживания.