Новое исследование OpenAI выявило неожиданную проблему в работе крупных языковых моделей — склонность к систематическим искажениям информации. Как сообщает TechCrunch, специалисты компании обнаружили, что ИИ иногда генерирует ответы, которые можно квалифицировать как преднамеренный обман или введение заблуждение.