Омские учёные разработали новый механизм защиты персональных данных
Алгоритм обладает повышенной "чувствительностью" к внешнему вмешательству и распознает голос человека с учётом тембра и интонации. Нейронную сеть для эффективной защиты персональных данных от утечек разработали учёные Омского государственного технического университета. Речь идёт о системе голосовой аутентификации пользователя на основе новой модели нейронной сети. Система от учёных ОмГТУ защищает от мошенников, которые пытаются подделать голос, например, используя записи из мессенджеров. Модель требует не только совпадения голоса, но и того, чтобы человек произнёс правильную парольную фразу. Это похоже на двойную аутентификацию. Даже если кто-то украдёт ваш голос из сообщения или сможет научить нейронную сеть говорить вашим голосом, то он всё равно не сможет войти в систему, потому что не будет знать пароля. Несколько лет над проектом работали Павел Ложников, Алексей Сулавко, Ирина Панфилова, Александр Самотуга и Даниил Иниватов. Длительное исследование включило в себя наработки за многие годы. К примеру, с момента начала сбора базы голосовых образов, на которой проходило обучение и тестирование, прошло 10 лет. Часть разработки была выполнена в рамках гранта поддержки аспирантов по информационной безопасности, работы по финальной и самой важной части проходили в период 2023-2024 годов. - Основные проблемы, которые позволяет решить эта модель, - низкая точность распознавания по голосу и сохранение биометрического шаблона втайне от злоумышленников. При внедрении процедуры распознавания человека по голосу нашей модели система сможет правильно определять, кто перед ней, и при этом не позволит злоумышленнику извлечь из себя шаблон голосового пароля. Алгоритм обладает повышенной "чувствительностью" к внешнему вмешательству из-за новых типов нейронов и математической связи между ними. Система распознает голос человека с поправкой на то, что тембр и интонации могут меняться в зависимости от эмоционального состояния. Мы учли, что человек может говорить обычным голосом, а может сонным, нервным или уставшим. Наша система точнее ближайшего аналога: вероятность ошибок составляет 2,1 % против 2,7 %. Генерируемый пароль в нашей системе - 1024 бита, в аналоге - всего 160, - пояснил проректор по научной и инновационной деятельности ОмГТУ Павел Ложников. Под ближайшим аналогом имеется в виду система, которая, как и омская разработка, создаёт защитный код на основе голоса человека. Она разработана по российскому стандарту ГОСТ Р 52633.5 и использует нейронную сеть - нейросетевой преобразователь биометрия-код. Эта система анализирует голос и превращает его в код, который и используется при аутентификации. Но она проще по структуре и менее точная. Омские учёные взяли её за основу, но улучшили технологию, добавив два типа специальных нейронов, которые лучше распознают голосовые особенности. - Любую систему можно попробовать взломать, существует множество способов атак на биометрические системы, но наша модель учитывает подобные угрозы. Одно из её преимуществ состоит в том, что её можно настроить на более строгое совпадение по голосовому отпечатку, что позволит дополнительно уменьшить вероятность пропуска злоумышленника. Также важное преимущество - система защищает биометрический образ человека и кодовую фразу. Даже если злоумышленник каким-то образом сможет подобраться к нейронной сети или провести успешную атаку на извлечение из неё знаний, то он не сможет получить ни биометрические образы зарегистрированных пользователей, ни их кодовые фразы, - поясняют разработчики. В будущем ученые ОмГТУ хотят решить задачу по переносу предложенной модели на другие биометрические признаки: рукописный почерк, особенности лица и другие. Научная школа "Нейросетевые алгоритмы искусственного интеллекта в защищённом исполнении" ОмГТУ, которой руководит Павел Ложников, работает на кафедре "Комплексная защита информации". Особенностью школы является использование Байесовских нейронных сетей, способных анализировать данные любой размерности. Здесь создают такие решения, при которых утечка или извлечение конфиденциальных данных, на которых обучалась модель ИИ, становится невозможным или вычислительно очень трудным и долгим процессом. Разработанные платформенные решения используются в бизнесе и научных исследованиях. Два года назад сотрудники ОмГТУ Павел Ложников, Александр Самотуга и Ольга Хоменко создали первый в России учебный курс "Доверенный искусственный интеллект". В первую очередь он для разработчиков приложений машинного обучения и искусственного интеллекта, для программистов, которые только заходят в эту предметную область, для руководителей компаний, работающих с большими данными. Однако также полезен для тех, кто просто хочет соприкоснуться с темой искусственного интеллекта и погрузиться в эту область. Программа включает набор тем, в рамках которых рассматриваются проблемы доверия к искусственному интеллекту, риски его использования, робастность и безопасность ИИ, защита данных, обнаружение аномалий и другие. Курс доступен на открытой образовательной онлайн-платформе Stepik. Еженедельно на сайте "Омск Здесь" в рубрике "Войти в ИТ" выходят материалы на тему информационных технологий. Что представляет из себя этот мир, кто его создаёт и развивает, как стать его частью. Всё это - в нашей рубрике, собравшей уже более сотни материалов и интервью с экспертами этой области науки и жизни. Фото созданы с помощью Midjourney