Пять фактов о том, как работают ИИ-чатботы

ИИ-чатботы стали частью повседневной жизни миллионов людей, но немногие хотя бы примерно понимают, как они работают. Портал theconversation.com поделился пятью фактами о том, как в реальности функционируют ИИ и как лучше ими пользоваться.

Пять фактов о том, как работают ИИ-чатботы
© Unsplash

Боты обучаются на обратной связи от людей

ИИ-чатботов обучают в несколько этапов, и первым выступает предварительная тренировка, в ходе которой модели учатся предсказывать следующие слова в массивных наборах текстов. Процесс позволяет им получить общее представление о языке, фактах и логике.

Если задать предварительно обученной модели любой вопрос, то она вполне может предоставить подробную инструкцию — даже если пользователь спросил что-то сомнительное. Для того, чтобы сделать ИИ полезным и безопасным для людей, люди-аннотаторы помогают направлять ответы моделей в более продуктивное русло — данный этап называется «подгонкой».

После этого этапа ИИ может отказать в ответе на какой-нибудь вредоносный вопрос, сославшись на законы или другие надежные источники информации. Без дополнительной подгонки чатботы были бы непредсказуемыми: им ничто не мешало бы распространять дезинформацию или вредный контент.

Бот учатся не с помощью слов, а через токены

Люди естественным путем обучаются языкам с помощью слов, но ИИ используют для этих целей маленькие юниты данных — токены. Ими могут выступать слова, подслова или даже просто последовательности символов. И хотя токенизация обычно следует логичным паттернам, иногда она приводит к неожиданным результатам, обнажающим как преимущества, так и недостатки способностей ИИ к интерпретации языка. Для контекста, словарный запас современных чатботов обычно насчитывает от 50 000 до 100 000 токенов.

Знания ботов устаревают каждый день

ИИ-чатботы не обновляют себя постоянно, из-за чего им бывает трудно ответить на какие-либо запросы, связанные со свежими событиями, новыми терминами и прочей информацией, находящейся за пределами даты отсечения данных — или последней даты обновления базы тренировочной информации.

Например, у актуальной версии ChatGPT дата отсечения — июнь 2024. Если спросить у него, кто сейчас президент той или иной страны, ИИ самому придется залезть в поисковик, «прочитать» результаты и выдать на их основании ответ. Многие другие ИИ тоже пользуются поисковыми движками, чтобы их ответы всегда были максимально актуальными. Обновление ИИ-чатботов — дорогостоящий, сложный процесс. Повышение эффективности обновлений по-прежнему остается открытой научной проблемой.

Боты очень легко впадают в галлюцинации

ИИ-чатботы иногда испытывают «галлюцинации» — то есть, выдают ложные или просто выдуманные результаты с полной уверенностью в своей правоте, поскольку модель предсказывает текст на базе паттернов, не проверяя факты. Подобные ошибки — результат внутренней структуры ИИ; они делают приоритет на связность информации вместо ее точности, полагаясь на неидеальные обучающие данные и полное отсутствие понимания реального мира. Хотя тот же ChatGPT получил некоторые улучшения, вроде инструмента для проверки фактов и возможности прямо потребовать бота цитировать надежные источники, никакие ухищрения не могут предотвратить галлюцинации на корню.

Боты занимаются математикой с помощью калькуляторов

Недавно некоторые чатботы перешли на т.н. логическую модель рассуждений, которая позволяет им разбить задачу на отдельные составляющие, чтобы решить сложную проблему. Например, если спросить у ChatGPT «сколько будет 56 345 минус 7 865 умножить на 350 468», ИИ выдаст правильный ответ, потому что он «понимает», что умножение идет перед вычитанием. А для того, чтобы проводить расчеты, бот использует встроенный калькулятор, позволяющий добиться точного результата.