Замгендиректора УЦСБ: «Искусственный интеллект может стать автоматическим инструментом защиты»
«Искусственный интеллект, хотим мы этого или нет, будет применяться абсолютно во всех сферах жизни человека, и более того, уже много где применяется. Если говорить о его позитивном влиянии, то это в первую очередь механизмы обработки неструктурированных данных (Big Data) методами машинного обучения. То есть сбор и обработка больших наборов разнородных, быстро создаваемых данных и извлечение из них ценной информации. Для информационной безопасности это первостепенная задача, так как мы получаем огромное количество сведений о событиях в информационной системе или из сетевого трафика. Все это содержит потенциально полезную информацию, потому что в них могут быть видны следы действий нарушителя, но эффективно проанализировать такой массив данных ни классическими алгоритмическими методами, ни вручную специалистами невозможно. В результате операторам центра мониторинга ИБ приходят тысячи сообщений о подозрительных событиях, на разбор которых уходит большое количество времени, однако часть значимых данных может быть пропущена ввиду ограниченного ресурса оператора. При этом уже сейчас есть разработки, когда вместо человека данный функционал выполняет робот, который за считанные секунды может выявить даже самый сложный инцидент ИБ. Еще одно важное преимущество – возможность искусственного интеллекта решать задачи автономно, то есть когда мы лишь ставим цель, но не говорим, как именно ее достичь и что для этого сделать, а искусственный интеллект самостоятельно находит способы добиться нужного результата. Зачастую он предлагает варианты решения задачи, выходящие за рамки правил, стандартов и логики человеческого мышления. Безусловно, алгоритмы искусственного интеллекта могут применяться и как автоматическое средство защиты, и как инструмент для злоумышленников. Так, мы уже сталкиваемся с готовыми агентами, которые умеют в автоматическом режиме проводить взлом. Отдельно стоит упомянуть вопрос доверия: как к данным, так и к самому алгоритму ИИ. Сейчас все говорят про дипфейки: видео и фото, сгенерированные искусственным интеллектом, стало сложно отличить от реального. При этом дипфейки – не просто безобидный розыгрыш, уже есть немало примеров, когда злоумышленники с помощью подделки голоса или видео руководителя компании могли вынудить сотрудника перевести крупную сумму на счет злоумышленника. Также есть множество примеров, когда удачно запущенный в социальные сети дипфейк отражался на котировках акций или даже курсах национальных валют. Отдельно стоит упомянуть вопрос доверия алгоритму ИИ: например, можно ли возложить на ИИ управление критическими процессами? И это вопрос не только информационной безопасности, но гораздо более широкий: тут затрагивается и этика, и уверенность в «профпригодности» ИИ... Поднимается даже тема мотивации самого искусственного интеллекта: он играет за нас или просто наши интересы пока совпадают? Недаром в компании OpenAI запустили исследовательский проект Superalignment: его суть заключается в прививании алгоритмам ИИ (причем не только современным, но и будущему искусственному «сверхинтеллекту») нашей системы ценностей. То есть «Скайнет» не должен захотеть уничтожить человечество ни при каких обстоятельствах. На данный момент именно отсутствие доверия является одним из главных препятствий для внедрения ИИ во все сферы жизни человека. К примеру, автономный агент управления автомобилем давно уже водит машину гораздо лучше среднестатистического водителя, но пока мы все равно пользуемся услугами человека, а не робота. Также важно отметить обратную сторону медали: Big Data и модели, которые обучаются на основе этих данных, дают ключевые преимущества предприятиям, но когда все данные консолидированы в единое хранилище, последствия утечек информации становятся катастрофическими. Проблема возникает как с защищенностью, так и с приватностью данных. Однако уже есть и решения (хотя бы по части проблем): например, федеративное обучение и обезличивание данных снижают риски утечки критичных данных, так как модели имеют доступ либо только к части информации, либо к информации, которая вместо критичных данных содержит некоторые кодовые значения вместо данных. Подводя итог, хочется сказать, что есть плюсы и минусы повсеместного использования ИИ, но «луддитами» быть не стоит: в любом случае эта технология придет. Самое главное, что та, другая сторона, которая не думает об этических вопросах, очень быстро осваивает все новые технологии, и если мы не будем применять их для защиты, то бороться с киберпреступностью станет гораздо труднее». Фото: ФедералПресс / Елена Сычева