Депутат Матвейчев: Законодательно можно обязать разработчиков ИИ встраивать в него защитные ограничения
У ИИ изначально отсутствуют врожденные этические принципы, мораль или понимание последствий. Это порождает серьезные риски, так как система может выдать опасные инструкции. А поэтому нейросети должны иметь фильтры, блокирующие опасный контент, сказал газете ВЗГЛЯД зампредседателя комитета Госдумы по информационной политике, информтехнологиям и связи Олег Матвейчев, комментируя введение родительского контроля в ChatGPT после смерти 16-летнего пользователя.
Компания OpenAI внедрила в ChatGPT систему родительского контроля и инструменты для экстренного оповещения. К такому решению она пришла после смерти подростка в США, которого чат-бот консультировал касательно суицида. В OpenAI признали, что при длительных диалогах нейросеть может давать некорректные ответы, несмотря на встроенные запреты.
«Понятие "искусственный интеллект" является в большей степени коммерческим названием, призванным повысить инвестиционную привлекательность технологий на фондовом рынке. По своей сути современные системы ИИ – это сложные статистические программы, которые анализируют огромные массивы данных из интернета и на основе вероятности подбирают наиболее подходящие слова и фразы в ответ на запрос. Они не мыслят и не рассуждают самостоятельно, а просто обрабатывают информацию», – говорит Матвейчев.
Именно поэтому у ИИ изначально отсутствуют врожденные этические принципы, мораль или понимание последствий, продолжает собеседник. Это порождает серьезные риски, так как система может выдать опасные инструкции, например, о суициде, как в данном случае, или о создании оружия. В ответ разработчики в процессе «дообучения» моделей вводят этические ограничения и фильтры, которые встраиваются непосредственно в алгоритм. Эти ограничения варьируются в зависимости от страны и разработчика: например, американские и китайские модели имеют разные политические и культурные фильтры, блокирующие контент, связанный с разжиганием ненависти, дискриминацией и другими деликатными темами.
«Нужно не людей ограничивать от нейросетей, а обучать нейросети таким образом, чтобы они не вели к подобного рода информации. Такие инциденты являются сигналом для разработчиков о необходимости постоянного дообучения и корректировки моделей, чтобы исключить выдачу вредоносной информации. Теоретически возможно законодательно обязать всех разработчиков встраивать обязательный набор защитных ограничений перед выводом продукта на рынок», – заключил депутат.
Ранее в США разразился скандал после смерти 16-летнего мальчика, который обсуждал с ChatGPT планы свести счеты с жизнью. Родители погибшего подали иск против OpenAI, заявив, что чат-бот предоставлял опасные инструкции. Отмечается, что подросток первоначально использовал платформу для учебы, однако со временем начал рассматривать чат-бот как близкого собеседника и советчика.