КиберпанкДеталиТехнологии

В лондонском метро искусственный интеллект будет выявлять нарушителей закона. Что не так с этой системой

Технология позволит сотрудникам лондонского метро автоматически получать сообщения об опасных и противозаконных ситуациях — например, если кто-то пытается воспользоваться транспортом без оплаты проезда. У некоторых экспертов внедрение системы с ИИ вызывает серьезные беспокойства.

В метро Лондона за людьми будут следить при помощи ИИ

Лондонский метрополитен тестирует технологии видеонаблюдения на базе искусственного интеллекта (ИИ). Система в режиме реального времени может выявлять различные нарушения правопорядка и безопасности, следя за «‎движениями, поведением и языком тела тысяч людей»‎. Об этом пишет издание Wired, ознакомившееся с проектной документацией.

Фото: Unsplash

Технология автоматически сообщает сотрудникам метрополитена об опасных и противозаконных ситуациях: например, если кто-то ведет себя агрессивно, размахивает оружием или просто пытается воспользоваться транспортом без оплаты проезда — ежегодно из-за «‎зайцев»‎ Лондон не может досчитаться £130 млн. 

Внедрением ИИ-системы видеонаблюдения занимается оператор общественного транспорта британской столицы Transport for London (TfL).

В рамках пилотного проекта программное обеспечение на базе ИИ, способное распознавать опасное поведение, «‎просмотрело»‎ изображения с камер видеонаблюдения на станции метро Willesden Green в Лондоне. С октября 2022-го по сентябрь 2023-го система обнаружила более 44 тыс. нарушений, о 19 тыс. из них она «‎сообщила»‎ сотрудникам метро, отправляя уведомление на компьютер.

«‎Надеемся, что если сотрудники станции будут предупреждены об опасных действиях и поведении пассажиров, они смогут быстрее реагировать на подобные ситуации»‎, — заявили в TfL. В компании добавили, что для дальнейшего развертывания проекта необходимо провести консультации с общественными организациями.

В чем риски использования ИИ в метро

Эксперты поставили под сомнение точность алгоритмов системы для обнаружения «‎опасного поведения»‎ в общественных местах. 

Так, в документации системы говорилось, что технология допускала ошибки во время тестов. Например, она определяла детей как потенциальных безбилетников, когда те проходили турникеты со своими родителями. Также алгоритм не смог отличить складной велосипед от обычного.

Кроме того, эксперты обеспокоены, что в будущем подобные камеры оснастят системой распознавания лиц.

Хотя тесты не подразумевали использование системы распознавания лиц, становится ясно, что применение ИИ в общественном пространстве для определения поведения и анализа языка тела поднимает многие научные, этические, юридические и социальные вопросы.

Майкл Биртвистл помощник директора независимого исследовательского института Ada Lovelace Institute

Многие ИТ-эксперты и разработчики нейросетей опасаются, что видеоконтроль действий людей с помощью ИИ нанесет огромный вред обществу. По их мнению, эффективность подобной «‎слежки»‎ будет только повышаться, чем воспользуются злоумышленники и политики для «наказания за инакомыслие».

Как используют искусственный интеллект в общественных местах

За последние годы использование ИИ в общественных местах становится все более привычным. 

Например, в июле прошлого года несколько станций метро Нью-Йорка в тестовом режиме стали применять камеры с ИИ, чтобы отслеживать пассажиров, которые не платят за проезд. Согласно отчету Metropolitan Transportation Authority (MTA), из-за «‎зайцев»‎ транспортная система города в 2022-м потеряла около $690 млн. Примечательно, что пока технология не передает данные нарушителей для полиции — систему используют только для оценки ущерба, а видео хранятся на серверах организации «в течение ограниченного времени».

В московском метро систему распознавания лиц активно использовали во время чемпионата мира по футболу 2018 года. К сентябрю 2020-го она заработала в полном объеме. По данным столичного дептранса, за 3 года технология позволила обнаружить 6012 человек, подозреваемых в совершении преступлений.

Камеры на базе ИИ устанавливают и в других общественных местах. Например, в 2024-м Франция собирается использовать их для обеспечения безопасности на улицах Парижа во время летних Олимпийских игр. Отмечается, что камеры «‎способны распознавать подозрительное поведение»‎. Против инициативы выступает большое число депутатов и правозащитников, которые считают, что подобные меры излишни и ставят под угрозу безопасность граждан и туристов.

Фото обложки: Unsplash

Копировать ссылкуСкопировано