Рамблер
Все новости
В миреНовости МосквыПолитикаОбществоПроисшествияНаука и техникаШоу-бизнесВоенные новостиАналитикаИгры
Личные финансы
Женский
Кино
Спорт
Aвто
Развлечения и отдых
Здоровье
Путешествия
Помощь
Полная версия

Технологические гиганты хотят регулирования ИИ, но на своих условиях

<p>Но неделей позже Олтмен рассказывал совсем другое журналистам в Лондоне. Он сказал, что попробует выполнять требования законодательства ЕС, но, если это окажется чересчур сложным, он просто прекратит работу на территории блока. В ответ на это еврокомиссар по внутреннему Тьерри Бретон обвинил Олтмена в «попытке шантажа». В июне они встретились и сообщили, что уладили разногласия по поводу регулирования. </p><p>Развитие искусственного интеллекта идет невероятно быстрыми темпами. Лишь за первые четыре месяца этого года сектор привлек более $1 млрд венчурного капитала, и технологию уже пытаются внедрить всюду – от зубных щеток до дронов. Как далеко все это зайдет и насколько быстро события продолжат развиваться во многом зависит от того, когда в дело вмешаются правительства. Технологические гиганты говорят, что поддерживают регулирование отрасли. Но в действительности все обстоит сложнее. В США Google, Microsoft, IBM и OpenAI попросили законодателей регулировать ИИ, что, по их словам, необходимо для того, чтобы гарантировать безопасность и конкурировать с Китаем. А в ЕС, где политики недавно одобрили законопроект c ограничительными механизмами для генерирующего ИИ, лоббисты тех же самых компаний выступают против мер, которые, по их мнению, лишь приведут к ограничению самого «горячего» сегмента технологической отрасли. </p><p>Правила регулирования техсектора серьезно отличаются по разные стороны Атлантики. ЕС принял всеобъемлющие законы о защите данных пять лет назад и сейчас внедряет строгие нормы для защиты конкуренции и модерации контента. В США же на протяжении более чем двух десятилетий не было почти никакого регулирования. Призывы ввести надзор там были инструментом пиара технологических гигантов и способом оказать давление на европейских законодателей, побуждающим их принимать более благоприятные для компаний решения, говорят многие чиновники, работающие над грядущим законом «Об искусственном интеллекте». </p><p>Технологические корпорации знают, что не могут игнорировать ЕС, особенно с учетом превращения его правил для соцсетей и защиты данных в глобальные стандарты. Закон «Об искусственном интеллекте», который будет принят в ближайшие два-три года, станет первой попыткой западных стран регулировать ИИ, и в нем будут предусмотрены серьезные наказания за нарушения. Если компания нарушит его положения, ей будет грозить штраф в размере до 6% годового оборота, а ее продукты могут запретить на территории блока. По оценкам, на ЕС будет приходиться 20-25% мирового рынка ИИ, который вырастет до более чем $1,3 трлн в течение десятилетия. </p><p>Это ставит техсектор в сложное положение. Крупнейшим провайдерам ИИ придется коренным образом переосмыслить собственную прозрачность, управление рисками и то, как они используют свои модели, считает Гри Хассельбальх, сооснователь аналитического центра DataEthics. </p><p>В отличие от прогресса в техсекторе, законотворчество продвигается очень медленно. В 2021 году Еврокомиссия опубликовала первый проект закона «Об искусственном интеллекте», положив начало процессу, в которым участвуют три органа власти, 27 стран и множество лоббистов. Переговоры растянулись на множество раундов и, вероятно, завершатся они лишь ближе к концу текущего года. В рамках законопроекта сначала был предложен риск-ориентированный подход, который предусматривает запрет ИИ в таких исключительных случаях, как для расчета социального рейтинга по китайскому образцу, а в остальном ИИ сможет работать с минимальным надзором или вообще без него. </p><p>Большая часть законопроекта посвящена правилам для «высокорисковых» случаев. Например, компании, выпускающие системы для прогнозирования преступлений или обработки откликов на вакансии, должны будут пользоваться исключительно высококачественными данными и заниматься оценкой рисков. Кроме этого, для глубинных фейков (дипфейков) и чат-ботов вводится правило прозрачности: люди должны знать, что разговаривают с ИИ, а сгенерированный или отредактированный с помощью ИИ фото- и видеоконтент необходимо соответствующим образом маркировать. Как таковой генерирующий ИИ не был отдельно упомянут в законопроекте, так как на тот момент он еще не был у всех на устах. </p>