Россиянам назвали главные риски использования нейросетей

Эксперт в сфере контроля качества Олег Строкатый предупредил, что нейросети могут уверенно выдавать ложную информацию, поэтому фундаментальные знания остаются необходимым фильтром.

Россиянам назвали главные риски использования нейросетей
© Global Look Press

В беседе с АБН24 специалист пояснил, что генеративный ИИ работает как вероятностная модель. Один и тот же запрос может приводить к разным результатам, а ответы не гарантируют точности.

«Именно поэтому фундаментальные знания становятся необходимым фильтром: без них человек рискует принять правдоподобный, но неверный ответ за истину», — сказал Строкатый.

Эксперт добавил, что эффективная работа с нейросетями строится на трёх принципах: знаниях, проверке и ответственности. Человек должен оставаться последним звеном контроля качества.

Ранее «Радио 1» сообщало, что в МФТИ и Институте физики атмосферы имени Обухова РАН разработали систему искусственного интеллекта, которая способна в автоматическом режиме обнаруживать на спутниковых снимках опасные погодные явления.