«Создать рабочую систему предсказания агрессии в ближайшее время не смогут»

Одна из дочерних структур Ростеха к 2022 году разработает специальное программное обеспечение для предсказания планируемых несанкционированных митингов и беспорядков. Система будет использовать сообщения в СМИ, соцсетях, данные камер. Эксперты в разговоре NEWS.ru указывают на то, что хоть сейчас и существует большой запрос на технологии предсказаний, в реальности у специалистов Ростеха могут возникнуть серьёзные проблемы при реализации проекта. Подробнее — в материале NEWS.ru.

Известно, что программное обеспечение разрабатывает ООО «Национальный центр информатизации». Предполагается, что для предсказания общественного возмущения система будет анализировать данные социальных сетей, сообщения в СМИ, «умных» камер и других источников. Работа над этим ПО ведётся в рамках проекта МЧС «Безопасный город».

Сообщается, что систему будут настраивать так, чтобы, если массовые беспорядки уже начались, она анализировала число участников митинга, поведение зачинщиков, направление движения толпы, число пострадавших, количество сотрудников правоохранительных органов, задействованных в обеспечении порядка, и другие данные.

По словам президента ассоциации «Руссофт» Валентина Макарова, у цифровых платформ уже есть все необходимые решения для анализа текстов, эмоционального состояния и закономерностей поведения групп населения, но для реализации проекта необходимо научить систему извлекать необходимую информацию из накапливаемой базы знаний. По словам директора по развитию веб-технологий Artezio Сергея Матусевича, для подобной работы придётся потратить немало времени на её обучение, тогда как технологий, которые можно легко перенести в Россию, пока что не существует.

Как уже говорилось выше, одним из средств сбора информации станут данные «умных» камер. Директор по связям с общественностью разработчика системы распознавания лиц NtechLab Александр Томас в разговоре с NEWS.ru рассказал, что сейчас действительно есть большой интерес к «программе предсказания агрессии», но, на их взгляд, она пока не применима в реальной жизни из-за большого количества ложных срабатываний.

{{expert-quote-14309}}

Author: Александр Томас [ директор по связям с общественностью NtechLab ]

Во-первых, хочу подчеркнуть, что мы ещё не видели проект и можем говорить только про ту информацию, которая доступна из СМИ. Во-вторых, есть достаточно точные технологии распознавания эмоций, но эмоции далеко не всегда говорят о будущей агрессии. Сейчас искусственный интеллект распознаёт лица с точностью около 99%, распознаёт силуэты, начинает распознавать оружие и действия с точностью выше 80%. Превратить все эти отдельные элементы в рабочую систему предсказания агрессии в ближайшее время, на наш взгляд, не смогут

При этом, как отмечает Александр Томас, если говорить о видеоаналитике, то она может быть очень полезна для различных жизненных аспектов. Эксперт напоминает, что во многих городах мира уже давно работает обширная система видеонаблюдения, но сейчас записи отсматривает человек.

Если этим будет заниматься программа, то это во многом позволит улучшить жизнь. Например, система будет видеть, что человек упал, распознавать, что ему плохо, что он лежит и не поднимается, и вызывать скорую на место. Это к вопросу о том, как распознавание лиц и действий могут быть очень полезны для людей, — говорит Томас.

По словам руководителя Роскомсвободы Артёма Козлюка, он сомневается в тем что концепция разрабатываемого ПО подтверждена современным уровнем науки. По его мнению, это может быть конъюнктурным феноменом, когда различные госструктуры хотят заявить о том, что они не только выявляют какой-то экстремизм, но и предотвращают его. При этом Роскомсвобода часто сталкивается с государственными тендерами на ПО, которое бы анализировало комментарии и настроения пользователей Интернета.

{{expert-quote-14311}}

Author: Артём Козлюк [ руководитель «Роскомсвободы» ]

Не знаю, насколько разработка Ростеха будет научной. Пока технической документации или чего-то ещё мы не видим. Безусловно, у спецслужб есть системы по выявлению каких-то действий узких экстремистских групп, по планированию теракта или чего-то подобного, но насколько успешно это будет работать с большой массой людей, непонятно. Если подобная система предсказания появится, то это будет отечественным ноу-хау. Наша же позиция в том, что подобные средства не нужны, их польза неочевидна и гораздо лучше «работать на местах».

Отметим, что несколько дней назад МВД раскритиковало проект «Безопасный город», в рамках которого разрабатывается специальное программное обеспечение для предсказания беспорядков. В ведомстве заявили, что законопроект о «Безопасном городе» предполагает создание единого оператора для контроля за работой системы, что может привести к монополизации рынка оборудования для городских систем. По словам Артема Козлюка, МВД может на самом деле беспокоится за то, что не они, а МЧС будет ответственно за систему, но так или иначе централизация действительно несёт определённые риски для обычных граждан.

Монополизация повышает вероятность утечки персональных данных. Если вся информация стекается одному контролёру, то вероятность того, что он либо сам будет недоброкачественно использовать наши данные, либо они оттуда утекут на чёрный рынок, выше, если всё централизованно. Как известно, персональные данные утекают у нас на чёрный рынок регулярно, — объясняет Козлюк.

В свою очередь директор по связям с общественностью NtechLab Александр Томас указывает на то, что если говорить о системах распознавания лиц, то персональные данные там защищены достаточно надёжно.

Да, люди боятся утечки данных, однако система распознавания лиц работает таким образом, что каждому лицу присваивается вектор признаков или уникальный шаблон лица. Это определённая последовательность чисел. При работе с признаками лица невозможно восстановить его исходное изображение, — говорит эксперт.

Как объясняет эксперт, это не только защищает персональные данные, но и делает передачу данных сторонним лицам бессмысленной, так как нет технологии, которая бы конвертировала шаблон обратно в лицо.