Что произошло
- Еврокомиссия и Европарламент спустя несколько месяцев переговоров достигли консенсуса об использовании нейросетей. Как пишет Reuters, основные положения закона AI Act об искусственном интеллекте согласованы после 17 часов непрерывных дебатов.
- В частности, представители ЕС договорились, что все разработчики крупных моделей ИИ (к таким делегаты отнесли пока только ChatGPT) должны будут выполнять «требования прозрачности» — а именно предоставлять информацию правительствам о том, как обучаются нейросети и какие данные для этого используются. Также они будут обязаны подписать добровольный кодекс поведения. Что именно в нем будет описано, пока неизвестно.
- Вопрос, который официальные лица назвали одним из самых сложных при обсуждении AI Act, связан с использованием технологии распознавания лиц. Законодатели хотели запретить ее полностью, но в итоге сошлись на том, что сканирование лиц в реальном времени возможно — с некоторыми ограничениями. К примеру, нейросетям нельзя будет классифицировать людей по политическим и религиозным убеждениям, а также по сексуальной ориентации или расе. Потребители будут иметь право подавать жалобы и получать объяснения, а штрафы за нарушения составят от €7,5 млн до €35 млн, или от 1,5% до 7% мирового оборота компании.
- Согласно процедурам Евросоюза, закон может вступить в силу не раньше 2025 года. Но для этого его проект вместе с дополнениями должен официально одобрить Европейский Совет, состоящий из 27 представителей стран ЕС.
Что говорят
Как пишет Bloomberg, ЕС изо всех сил пытался найти баланс между регулированием ИИ-отрасли и сохранением собственных стартапов в этой сфере — французского Mistral AI и немецкого Aleph Alpha. Как считают опрошенные эксперты, это и стало камнем преткновения в переговорах и основной причиной их затягивания (закон разрабатывается с 2021 года).
Правительства некоторых стран Европы, в частности Франции и Германии, в ноябре 2023-го выступили против этих правил. Однако теперь сделка удовлетворяет их запросам, отмечает издание. Как объяснил госсекретарь Испании Карме Артигас, Mistral, скорее всего, не будет подпадать под требования общего контроля ИИ, так как стартап находится на этапе исследований и разработок.
Washington Post называет европейский закон об ИИ ни много ни мало мировым стандартом для классификации рисков, связанных с использованием нейросетей.
При этом эксперты не исключают, что планы по принятию законопроекта в ближайшие месяцы могут вновь провалиться: если парламент снова отправит документ на доработку и процесс затянется до января, то дискуссии приостановятся как минимум до лета — из-за подготовки к выборам в Европейский парламент в июне.
Контекст
Официальные лица ЕС пока не разглашают детали нового закона. Известно, что в основу его заложена классификация нейросетей по четырем категориям риска: минимальный, ограниченный, высокий и неприемлемый. Чем выше потенциальный риск приложения, тем более жесткие требования к нему планируют предъявлять.
- ИИ-системы с минимальным риском (например, игры), как предполагается, будут работать без ограничений.
- ИИ из категории ограниченного риска (сюда могут войти приложения, работающие на GPT) должны быть соответствующим образом маркированы, чтобы пользователи могли всегда знать, что они взаимодействуют с ИИ или продуктами его деятельности.
- ИИ с высокой степенью риска (биометрические системы, беспилотные автомобили и прочее) будет попадать на рынок только после одобрения еврочиновниками. Кроме того, разрешение на его использование планируют периодически обновлять на протяжении всего жизненного цикла продукта.
- Неприемлемыми считаются системы ИИ, представляющие «угрозу» для общества (например, игрушки с голосовым управлением, которые как отмечают эксперты, могут открыть детям доступ к неподходящей и опасной информации).
Мировая практика
Правительства многих стран активно работают над нормами регулирования отрасли ИИ, а некоторым уже пришлось инициировать расследования потенциальных нарушений.
- В августе 2023-го власти Китая опубликовали нормативный документ о генеративном искусственном интеллекте, согласно которому разработчики несут ответственность за работу созданных ими нейросетей: вплоть до уголовной, в случае использования для обучения ИИ данных, защищенных авторским правом.
- В сентябре 2023-го власти Австралии потребовали от владельцев поисковых систем остановить распространение материалов о сексуальном насилии над детьми, созданных нейросетями на основе дипфейков.
- Япония планирует до конца года ввести правила регулирования ИИ-отрасли. Среди них, например, запрет для компаний на сбор конфиденциальных данных людей без их разрешения.
- В октябре стало известно, что в России тоже разрабатывают новые правила о регулировании ИИ. Они должны войти в нацпроект по экономике данных, который правительство планирует утвердить к июлю 2024-го. Законодатели предлагают определить, кто будет ответственен за ошибки, допущенные в результате применения ИИ, и создать «единый ИИ-регулятор» (полномочия этого ведомства пока не раскрываются).
- В ноябре министр торговли США Джина Раймондо заявила, что в стране планируют создать институт безопасности нейросетей. Он будет оценивать все возможные риски, связанные с так называемыми «передовыми» моделями ИИ.
- В этом же месяце на первом глобальном саммите по безопасности ИИ в Великобритании более 25 стран, включая США, Китай и ЕС, договорились устанавливать общий подход к контролю над ИИ.