Несмотря на впечатляющие успехи, крупные языковые модели вроде ChatGPT все еще склонны к ошибкам — и пугающе уверенно выдают как верные, так и заведомо ложные ответы. Проблема — в неопределенности, с которой такие модели работают. Однако швейцарские исследователи нашли способ эту неопределенность уменьшить, и разработали метод, который позволяет «подпитать» ИИ дополнительными, релевантными данными, чтобы ответы стали более точными. Препринт работы опубликован на arxiv.