Касперская: риски искусственного интеллекта еще только предстоит изучить
МОСКВА, 27 сентября. /ТАСС/. С развитием больших языков моделей (LLM) обществу предстоит изучить риски их использования, а также подумать, как развивать средства защиты в этой сфере. Об этом рассказала в интервью ТАСС президент InfoWatch, председатель правления АРПП "Отечественный софт" Наталья Касперская.
"С развитием языковых моделей и их применения, надо будет серьезно думать, как развивать средства защиты от них. Человечество сейчас находится только на этапе осознания рисков искусственного интеллекта. И я уверена - нам предстоит много открытий", - заявила она.
В частности, Касперская отметила, что есть риск утечки данных. По ее словам, LLM может стать прямым каналом утечки информации, когда человек добровольно загружает свои данные.
"Мы разработали технологию для наших продуктов, которая может перехватывать конфиденциальную информацию из языковых моделей. Но пока технология защищает не от всех возможных сценариев утечек", - добавила она.
Полный текст интервью будет опубликован 29 сентября в 10:00 мск.