Число статей о галлюцинациях ИИ выросло на 377% за три года

С начала 2022 года по первое полугодие 2025-го в международных источниках были опубликованы около 4 тысяч научных статей, посвященных галлюцинациям искусственного интеллекта, сообщили Forbes в «Ростелекоме».

Число статей о галлюцинациях ИИ выросло на 377%
© РИА Новости

Прирост числа публикаций на эту тему составил 377% за три года, указано в «Мониторинге глобальных трендов цифровизации», представленном компанией.

«Это [галлюцинации ИИ] становится особенно критичным с ростом генеративных моделей, поскольку ошибки могут привести к опасным выводам. Например, медицинская модель ИИ способна неверно «поставить диагноз», — говорится в исследовании.

Среди частых ошибок ИИ: фактические неточности, искажения смысла, ошибки интерпретации запроса, нарушения логики.

Однако точно посчитать долю неверной информации невозможно, она зависит от характера запроса, отмечает директор департамента развития машинного обучения и ИИ «Билайн» Олег Конорев. По его словам, есть даже ситуации, когда ошибки достигают 100%. ИИ использует данные из интернета, где есть и ненадежные источники, добавляет директор R&D-отдела «Авито» Александр Рыжков.

В то же время гендиректор «Аватар машины» Виктор Носко прогнозирует кратный рост внедрения ИИ в случае, если удастся решить проблему его галлюцинаций. По словам эксперта, за последнее время их уровень уже снизился вдвое.

«Например, важным показателем успеха современных моделей является способность делать точные математические расчеты — эта способность существенно спрогрессировала, и теперь в 95% случаев арифметические действия верны. Но сложные задачи GigaChat, например, решает неверно по-прежнему», — отметил он.

Ведущий разработчик департамента машинного обучения MWS AI Иван Копылов назвал несколько способов снизить количество ошибок ИИ на текущем этапе: использовать такие запросы, при которых модель не должна отвечать на вопрос, если у нее нет полной уверенности в правильности своего суждения, а также делать запрос по строго заданным источникам информации. В «Яндексе» резюмировали, что исключить галлюцинации искусственного интеллекта «в принципе невозможно».