FT: американские компании намерены добиться смягчения норм ЕС в регулировании ИИ

ЛОНДОН, 19 февраля. /ТАСС/. Крупнейшие технологические компании США намерены добиться смягчения новых правил ЕС по регулированию технологий искусственного интеллекта (ИИ), опираясь на поддержку администрации президента Дональда Трампа. Об этом сообщила газета Financial Times (FT) со ссылкой на источники.

По их информации, противостояние компаний из Кремниевой долины с властями ЕС возглавит корпорация Meta (признана в РФ экстремистской и запрещена). Источники FT отмечают, что компании США также подталкивают Брюссель к ограничению сферы применения Закона о цифровых рынках, который мешает крупным онлайн-платформам злоупотреблять своим положением на рынке и грозит им крупными штрафами. Как полагают лоббисты американского бизнеса, поддержка их позиции со стороны Трампа поможет им добиться смягчения норм ЕС, регулирующих использование ИИ-технологий.

На этом фоне политолог из Европейского совета по международным отношениям Георгиос Верди высказал мнение, что нежелание европейских лидеров вступать в открытую конфронтацию с новой администрацией США может укрепить уверенность технологических групп в слабости позиций сообщества и "воодушевить" их на более решительные действия. В то же время замглавы Еврокомиссии по технологическому суверенитету, безопасности и демократии Хенна Вирккунен в беседе с FT заявила, что попытки американских лоббистов не повлияют на нормы ЕС, и подтвердила намерение Брюсселя обеспечить выполнение бизнесом новых правил регулирования в сфере ИИ.

Закон об ИИ в ЕС

В марте 2024 года депутаты Европарламента одобрили закон, касающийся применения технологий ИИ. В поддержку документа, являющего первым в мире законом по этой тематике, проголосовали 523 парламентария, еще 46 депутатов высказались против. Документ призван способствовать регулированию использования таких технологий, как чат-бот ChatGPT и системы биометрической идентификации в реальном времени.

В соответствии с законодательством, компании, создающие "высокорисковые" системы ИИ, должны быть более прозрачными в отношении того, как они создают и используют модели ИИ. Разработчики самых мощных моделей ИИ сталкиваются с дополнительными требованиями, например, с проведением оценки рисков. Компании, не соблюдающие закон, могут подвергнуться огромным штрафам или же их деятельность в сообществе вообще окажется под запретом.