Эксперты ВТБ назвали основные признаки фейков, сгенерированных нейросетями
МОСКВА, 30 мая. /ТАСС/. Нейросети часто допускают ошибки в создаваемых изображениях, например, в картинках присутствуют неестественные тени или бессмысленные надписи, в текстах же присутствует шаблонность, рассказали ТАСС эксперты ВТБ.
"Главное правило выявления фейковых изображений - это внимание к деталям. Наиболее частыми признаками нейросетевой генерации становятся анатомические ошибки, например, лишние или деформированные пальцы, искажения перспективы, неестественные тени и отражения, а также артефакты или бессмысленные надписи. Кроме того, стоит насторожиться, если в кадре присутствуют предметы, которые нарушают законы физики или не соответствуют здравому смыслу. Такой подход позволяет вовремя распознать подделку, даже если на первый взгляд изображение кажется реалистичным", - отметил директор управления моделирования партнерств и IT-процессов ВТБ Алексей Пустынников.
Что же касается текстов, то принципиально отличить текст, созданный нейросетью, от авторского на сегодня невозможно, так как любые тексты могут быть сгенерированы искусственно, считает ведущий специалист управления партнерств и IT-процессов ВТБ Виктор Булатов.
"Однако для массово доступных моделей характерна определенная шаблонность: избыточная дружелюбность, повторяемость, обилие стандартных оборотов и "воды". Важно всегда критически оценивать контент: насколько он полезен, сколько усилий вложено в его создание, используется ли в тексте личный опыт автора и можно ли проверить полученную информацию по независимым источникам", - указал ведущий специалист управления партнерств и IT-процессов ВТБ Виктор Булатов.
Специальные сервисы для распознания ИИ
С распространением ИИ-контента активно развиваются модели-детекторы, способные автоматически определять, был ли текст или изображение сгенерированы нейросетью, а также оценивать достоверность и корректность информации. Как отмечают эксперты ВТБ, такие подходы становятся особенно актуальными при работе с базами знаний и клиентскими интерфейсами, где важно исключить риск дезинформации или некорректных формулировок.
"Сейчас все больше компаний используют ИИ-модели, в том числе для интеллектуального поиска по базам знаний, - и здесь особенно важно убедиться, что система не допускает искажений, а формирует ответы на основе достоверных источников. Например, в ближайших планах ВТБ - обучение специальных моделей-детекторов, чтобы отслеживать наличие токсичных или чувствительных тем в сгенерированном контенте и проверять достоверность выдачи. А для обычных пользователей главное правило остается прежним: перепроверяйте информацию по надежным источникам", - подчеркнул руководитель направления разработки ИИ-решений ВТБ Лев Меркушов.