У ИИ изначально отсутствуют врожденные этические принципы, мораль или понимание последствий. Это порождает серьезные риски, так как система может выдать опасные инструкции. А поэтому нейросети должны иметь фильтры, блокирующие опасный контент, сказал газете ВЗГЛЯД зампредседателя комитета Госдумы по информационной политике, информтехнологиям и связи Олег Матвейчев, комментируя введение родительского контроля в ChatGPT после смерти пользователя.