Илон Маск: Вышедший из-под контроля ИИ может привести к апокалипсису
Почти ежедневно пользователи встречают искусственный интеллект (ИИ), например, в виде голосовых ассистентов банков. Однако вероятность того, что такие машины выйдут из-под контроля и устроят апокалипсис, достигает 20%, заявил американский предприниматель Илон Маск в ходе семинара "Великие дебаты об ИИ".
По его мнению, развитие этих технологий похоже на воспитание ребенка-гения, а потому особенно важно создавать "максимально любопытный и ищущий истины ИИ".
"Сейчас гораздо бОльшую опасность представляет человек, а не ИИ, потому что ИИ, который создается сейчас и будет создаваться в ближайшее время, делает исключительно то, что ему прикажет человек", - уверен доктор технических наук и гендиректор Smart Engines Владимир Арлазаров.
Он полагает, что риски техногенных аварий, связанных с использованием этих систем, есть, но все зависит от того, насколько качественно люди регулируют эту область.
Риски ущерба от возможного выхода из строя ИИ определяются уровнем его проникновения в системы управления, хозяйственную и повседневную жизнь общества, степенью доверия к решениям, принимаемых технологиями, и законодательным регулированием их использования. По словам коммерческого директора SL Soft Георгия Подбуцкого, они пока не так высоки.
Необходимо после обучения изымать ИИ из свободного неавторизованного доступа
"В обществе нередко опасаются, что ИИ может выйти из-под контроля человека и действовать в своих интересах. Например, начать манипулировать людьми, изучив их предпочтения. Но этой перспективы не стоит опасаться: если разработка решений, которые анализируют поведение граждан, будет качественной, их злоупотребление полученной информацией всегда можно будет пресечь", - сказал основатель и продюсер "РОББО" Павел Фролов.
По мнению менеджера продуктов Innostage Евгения Суркова, основная угроза связана с тем, что люди, принимающие решения в критичных сферах, будут ориентироваться на данные ИИ.
Подбуцкий считает, что риски применения этих технологий очевидны, например, в бизнес-задачах. В первую очередь речь идет о предвзятости: нейросети учатся на данных из Сети, которые не всегда достоверны. Также существуют "галлюцинации" ИИ, когда он выдумывает ответы, угроза конфиденциальности пользователей, этические риски и вопросы интеллектуальной собственности. В этой связи развитие ИИ требует технологического совершенствования и широкого комплекса организационных и законодательных мер.
Необходимо после обучения изымать ИИ из свободного неавторизованного доступа, при этом контролируя факты обращений пользователя к таким продуктам и вводя аппаратные и программные ограничения, добавил Сурков.
"Следует активнее обучать языковые модели противодействию вредоносным запросам и постоянно проверять нейросеть на наличие джейлбрейков - уязвимостей в запросах, которые позволяют обходить этические правила языковой модели", - отметила руководитель отдела по информационной безопасности компании RooX Ольга Карпова.
Как говорит Арлазаров, вероятности того, что "завтра ИИ постучится в вашу дверь", пока нет, поскольку даже на обычный запрос системе необходимо огромное количество энергии. "Скорее человечество уничтожит само себя, нежели пострадает от ИИ", - заключил он.