Камера смотрит в мир: грозит ли распознавание лиц охотой на несогласных
Силовики стали задерживать участников антиправительственных акций, опознавая их по камерам наблюдения, «умеющим» определять лица. Соответствующая инициатива в Москве стартовала ещё в 2019 году, она активно использовалась и во время условного карантина в первую волну пандемии. Полиция отчитывалась об эффективности системы внедрения искусственного интеллекта (ИИ) и анонсировала многомиллиардные траты в этом направлении. NEWS.ru решил узнать, не стали ли современные цифровые опции политическим инструментом и источником злоупотреблений.
ИИ обманываться рад?
После массовых задержаний участников протеста, в Сети появились сообщения о том, что силовики в Москве ловили «вольнодумцев» не только во время непосредственно разгона массовых выступлений 23 и 31 января, а также 2 февраля, но и позднее, пользуясь услугами ИИ. Речь идёт о системе «умных» камер, которые начали активно внедряться в Москве с 2017 года, а с 1 июля 2020 года столица стала пилотной площадкой проведения эксперимента по использованию ИИ. В ноябре МВД представило проект по внедрению ИИ для выявления связи между преступлениями и поиска нарушителей закона, на который обещали выделить 55 млрд рублей из федерального бюджета.
Ранее в МВД заявляли, что ношение медицинских масок не влияет на распознавание лиц камерами видеонаблюдения, хотя позднее стало известно, что «умные» камеры в столичной подземке могут ошибаться и принимать одного человека за другого. Так, в частности, произошло с Сергеем Межуевым, которого система ИИ идентифицировала как человека, находящегося в розыске. Также известны истории других людей, которых задерживали по «наводкам» видеокамер, в том числе за то, что кто-то из таких граждан «стоит на учёте как политический».
Московские власти для создания системы слежки и распознавания лиц используют разработки нескольких компаний, к которым решил обратиться за комментариями NEWS.ru, чтобы выяснить несколько важных моментов. Например, насколько точно их разработки могут распознавать лица людей, например, в масках и капюшоне, или в бейсболке, не может ли такая система слежения стать поводом для злоупотреблений со стороны силовиков, которые уже вовсю пользуются плодами технического прогресса.
Одна из компаний — VisionLabs. Её представитель отказался давать комментарий, сказав, что их эксперты «не любят комментировать такие темы».
Мы делаем технологии, а другое дело — как их используют, и мы не готовы комментировать то, что происходит сейчас, — пояснил представитель компании.
Ранее основатель VisionLabs Александр Ханин рассказывал, что знает «несколько десятков способов [обмануть технологию распознавания лиц] за минуту». Он назвал себя и своих коллег «параноиками», которые, прежде чем выпускать решение на рынок, пытаются «сами его беспощадно ломать». Также он утверждал, что «Большинство алгоритмов в сфере распознавания лиц легко обмануть: достаточно распечатать фотографию, и камера не поймёт, что это не реальный человек».
В компании N-Tech.Lab, также разрабатывающей технологии для столичных властей, поступили аналогично и не стали давать комментарий без объяснения причин. Как писал TJ, это предприятие разработало специальный алгоритм распознавания лиц FaceN. До начала сотрудничества с чиновниками, сооснователь компании Артём Кухаренко рассказывал о его работе. По его словам, нейросеть извлекает из изображений величину глаз, фактуру бровей, форму губ и не только. В начале 2020 года компания получила $3,2 млн.
Директор по науке и технологиям Агентства искусственного интеллекта Роман Душкин в беседе с NEWS.ru пояснил, что решения для распознавания лиц на базе ИИ «сегодня получают такой уровень точности, что могут сравниться с человеческими глазами».
{{expert-quote-11283}}
Author: Роман Душкин [ директор по науке и технологиям Агентства искусственного интеллекта ]
Система [распознавания] функционирует без человеческих проблем, таких как «отошёл покурить», «в туалете» и так далее, то есть система внимательна всегда. Люди, которые попадают в видеокамеры, проходят процедуру распознавания лиц и сверки с базой, где, например, находятся преступники в федеральном розыске. Но нет никаких гарантий, что туда кто-нибудь не попадёт во внесудебном порядке. Нормативная база здесь очень плохо проработана. Но если вашего лица в этой базе нет, то беспокоиться бессмысленно. Треки о том, где вы ходите, строят Google, Apple и оператор сотовой связи. Делают это они очень давно и сейчас работают с точностью до 50 м, можно даже определить, кто с кем в одном помещении находился.
Специалист считает, что внедрение систем распознавания лиц даёт больше положительных эффектов, чем отрицательных. По его мнению, «негативный момент эфемерен — нарушение свобод граждан на какие-нибудь вещи». Плюсами он назвал существенное облегчение поиска преступников, поскольку «ни один полицейский не может загрузить 15 тысяч фотографий в голову». Второй положительный момент — это возможность быстро отыскать потерявшихся людей, например пожилых или детей.
Говоря о точности определения людей, чьи лица закрыты масками, очками, капюшоном или шапкой, то, по словам Душкина, нейросетевые решения на базе ИИ можно «перетренировывать при возникновении каких-то новых ситуаций». Например, если человеческий мозг распознаёт знакомое лицо в маске или бейсболке, то и ИИ может справиться с этим. Но если человеческий интеллект не может решить какую-то задачу, даже применяя приборы ночного видения и тепловизоры, то ожидать, что ИИ решит эту задачу, неправильно, уверен Роман Душкин.
Что касается ошибок, то, по его словам, бывают двух видов — ложно-положительного и ложно-отрицательного срабатывания. Первая — это когда система распознает человека как «фигуранта» тревожного списка. Такая ошибка, по его словам, «легко исключается с помощью контроля оператора и переучиванием системы». Вторая ошибка возникает, когда система не распознаёт человека из тревожного списка.
Никто не хочет вступать в диалог
По мнению ведущего юриста Роскомсовободы Саркиса Дарбиняна, основная проблема системы распознавания лиц заключается в отсутствии публичного регламента, «который бы определял, на каких основаниях, кто и как может загружать фотографии в эту систему, а также, соответственно, кто ответственен за то, чтобы не было злоупотреблений».
{{expert-quote-11285}}
Author: Саркис Дарбинян [ адвокат, ведущий юрист Роскомсовободы ]
Система впервые начала использоваться для отлова нарушителей порядка на стадионах. Сначала нам говорили, что она необходима для поиска пропавших детей и беглых преступников. Аппетиты приходят во время еды, и вскоре систему начали использовать во время пандемии. Людей штрафовали за нарушение режима самоизоляции: подъездные камеры идентифицировали, что человек выходил из дома, и таких случаев множество. Иногда система ложно срабатывает — людей доставляют в полицию, дополнительно ещё и отпечатки пальцев берут, а когда выясняется, что это не тот человек, никто за ошибки не извиняется. В итоге всё пришло к тому, чего боялись правозащитники: систему начали использовать для контроля гражданских протестов и мирных акций. Проблема в том, что система не только контролирует поведение людей, она может и менять это поведение. Человек, зная, что он находится под объективом камеры, которая его идентифицирует, может отказаться пойти на какое-то мероприятие, протест. И это глубокая проблема, которую изучают социологи и юристы во всём мире. Совет Европы 28 января выпустил рекомендации по использованию системы распознавания лиц, порекомендовав всем государствам не столь интенсивно внедрять эти технологии в правоохранительных и миграционных целях. Тем не менее Россия не только не прекращает, а пытается расширить возможности этой системы.
Он подчёркивает, что хоть Роскомнадзор должен отвечать за защиту персональных данных, он не обладает полномочиями правового характера, чтобы приходить и проверять силовиков. Поэтому, отмечает Дарбинян, различные карательные органы «имеют бесконтрольный доступ к тем серверам и модулям идентификации, которые есть у департамента информационных технологий Москвы, и могут загрузить в систему распознавания лиц фотографии кого угодно». Он напоминает, что правозащитники неоднократно обращались в суды и пытались запретить использовать технологию распознавания лиц, доказывая, что их данные «утекают на чёрный рынок, и что есть незаконный рынок „пробива“ по лицу в Москве».
Как предполагает исполнительный директор Общества защиты Интернета Михаил Климарёв, система слежки за гражданами посредством ИИ может стать источником злоупотреблений силовиков.
{{expert-quote-11287}}
Author: Михаил Климарёв [ исполнительный директор Общества защиты Интернета ]
Мне до сих пор непонятно, почему общество так индифферентно по отношению к этой технологии. Ошибки поможет избежать общественная дискуссия и открытость. Но, как мы видим, никто не хочет вступать в диалог, а просто лепит камеры вагонами.
Как писал NEWS.ru, год назад московская мэрия заказала сотни мощных серверов для системы распознавания лиц, которая должна была анализировать данные 175 тысяч городских видеокамер, входящих в цифровую сеть по отслеживанию граждан. Общее число таких «окуляров» в городе должно превысить 200 тысяч. На этом фоне Еврокомиссия хотела на пять лет ограничить подобные системы, пока не будут оценены все её возможные опасности, а московская активистка Алёна Попова через суд добивалась запрета всеобщей видеофиксации и идентификации.
В подготовке материала также участвовала Марина Ягодкина.