Рамблер
Все новости
В миреНовости МосквыПолитикаОбществоПроисшествияНаука и техникаШоу-бизнесВоенные новостиАналитикаИгры
Личные финансы
Женский
Кино
Спорт
Aвто
Развлечения и отдых
Здоровье
Путешествия
Помощь
Полная версия

Риски при внедрении ИИ: ответственный подход к инновациям

<p><strong>ChatGPT и подобные ему большие языковые модели изменили наше отношение к технологиям за считаные месяцы. Все крупные мировые компании как одна анонсируют внедрение искусственного интеллекта (ИИ) в продукты и рабочие процессы. В связи с этим у руководителей ИТ-компаний и владельцев цифровых продуктов появляется дополнительная работа - современный бизнес требует быстрого внедрения новомодной технологии, из-за чего игнорируются важнейшие риски, способные повлечь за собой определенные сложности для любого бизнеса. </strong></p> <p>В данной статье я расскажу о некоторых из таких рисков и попробую доказать, что лучший способ относиться к инновациям - делать это с полной ответственностью.</p> <h3>Виды рисков и ошибок при внедрении ИИ</h3> <p><strong>1. Несоответствие ожиданиям</strong></p> <p>Самой безобидной, но в то же время самой распространенной ошибкой при внедрении ИИ является несоответствие решения поставленной задаче. Пытаясь успеть за текущей волной популярности ИИ, некоторые руководители готовы в корне изменить устоявшиеся процессы и зарекомендовавшие себя продукты компании, чтобы показать стремление идти в ногу со временем. На внедрение "ИИ ради ИИ" зачастую тратятся несопоставимые финансовые и человеческие ресурсы компании, но, к сожалению, большинство таких инициатив не могут увенчаться успехом.</p> <p>Разработка и внедрение собственного ИИ - это долгий и дорогостоящий процесс, к которому необходимо обращаться в том случае, когда существующие технологии и решения не могут справиться с поставленной задачей. Неслучайно многие специалисты по ИИ разделяют мнение, что, если есть возможность не внедрять ИИ - лучше не делать этого, потому что интеграцию ИИ зачастую можно сравнить с забиванием гвоздей микроскопом.</p> <p><strong>2. Безопасность ваших данных</strong></p> <p>Еще один риск, связанный с внедрением ИИ, - это безопасность данных. Как ни странно, далеко не все компании осознают, что передача ценных данных в руки третьих сторон может доставить немало проблем, что и <a href="https://mashable.com/article/samsung-chatgpt-leak-details">произошло с корпорацией Samsung</a> в апреле текущего года. Из-за невнимательного подхода к внедрению ИИ в рабочий процесс в общий доступ утек секретный исходный код и запись закрытой конференции. Научившись на своих ошибках, Samsung сразу же установила строгие ограничения по использованию ИИ.</p> <p>Еще одним примером может послужить случай, произошедший с пользователями ChatGPT. Из <a href="https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/">недавнего отчета Group-IB</a> стало известно, что в скрытых сегментах интернета продается более 100 тысяч взломанных аккаунтов пользователей ChatGPT. Учитывая, что мошенники могут получить доступ к истории сообщений и персональным данным всего за пару кликов, стоит более ответственно подходить к использованию конфиденциальной информации при эксплуатации ChatGPT или любого другого ИИ.</p> <p><strong>3. Получение прав на данные для тренировки модели ИИ</strong></p> <p>Не секрет, что некоторые значимые разработчики больших языковых моделей (например, OpenAI) не полностью раскрывают массивы данных, используемые для тренировки моделей ИИ. Это связано с тем, что наборы таких данных, как правило, создаются без получения необходимых разрешений от их владельцев. Крупное фотоагентство Getty Images уже выявило <a href="https://www.theverge.com/2023/2/6/23587393/ai-art-copyright-lawsuit-getty-images-stable-diffusion">незаконное использование 12 млн</a> своих фотографий и подало в суд на генератора картинок - компанию Stability AI Ltd. Похожая ситуация произошла и с <a href="https://www.cnbc.com/2023/04/19/musk-threatens-to-sue-microsoft-over-twitter-data-being-used-in-ai.html">социальной сетью Twitter</a>.</p> <p><strong>4. "Предвзятость" ИИ</strong></p> <p>Общеизвестно, что модели ИИ имеют такую же степень предвзятости, как и данные, на которых они обучаются. Так как ИИ не умеет "думать" и воспроизводить независимые мысли, то ему не избежать ошибок и противоречивых суждений, заложенных в тренировочном корпусе данных. В частности, существует несколько примеров (<a href="https://vistapglobal.com/microsofts-stops-sale-of-ai-facial-analysis-tools-face-over-bias-inaccuracy-issues-msft-dia/">Microsoft</a>, <a href="https://www.forbes.com/sites/timbajarin/2020/06/18/why-it-matters-that-ibm-has-abandoned-its-facial-recognition-technology/?sh=7c6fd41eafaf">IBM</a>), когда модели ИИ по распознаванию лиц показывали неудовлетворительные результаты при анализе темнокожих людей, при этом отлично справляясь с анализом лиц европейской внешности. Кроме того, модели ИИ были уличены в проявлении предвзятости при <a href="https://www.washingtonpost.com/business/2019/11/11/apple-card-algorithm-sparks-gender-bias-allegations-against-goldman-sachs/">расчете</a><a href="https://www.washingtonpost.com/business/2019/11/11/apple-card-algorithm-sparks-gender-bias-allegations-against-goldman-sachs/"> кредитного рейтинга женщин</a>, <a href="https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G">найме персонала женского пола</a> и <a href="https://www.wired.com/story/google-autocomplete-vile-suggestions/">автоматическом предложении расистских запросов в поисковой строке</a>.</p> <p><strong>5. "Галлюцинации" ИИ</strong></p> <p>Однако даже обучение генеративной модели на качественном, непредвзятом и многократно проверенном массиве данных не гарантирует стопроцентную достоверность ответов, сгенерированных нейросетью. Нынешние модели ИИ пока не владеют целостной картиной мира, в связи с чем могут возникать так называемые галлюцинации, то есть искажения фактов в ответах модели.</p> <p>На данный момент практически невозможно искоренить появление таких "галлюцинаций", разве что только снизить их частоту. В связи с этим внедрение языковых моделей без человеческого контроля в сферы, где требуется максимально возможная точность ответа (медицина, производство, юриспруденция) и цена ошибки велика, происходит в разы медленнее, чем хотелось бы. В то же время ИИ показывает себя наилучшим образом в связке с человеком, помогая ему с первичным анализом и проверкой данных, закладывая фундамент для принятия ключевых решений.</p> <h3>Заключение</h3> <p>Необходимо осознавать, что все перечисленные риски могут нанести серьезный финансовый и репутационный удар для компаний, безответственно относящихся к внедрению передовых технологий. Например, повторная утечка персональных данных может обойтись <a href="https://www.rbc.ru/politics/17/03/2023/6413ec6c9a79474989a45f12">в 500 млн руб</a>.</p> <p>Чтобы добиться успеха в проектах с участием ИИ, необходимо найти золотую середину между скоростью внедрения и возможными рисками. В идеале на выходе должен получиться прозрачный процесс, предусматривающий получение прав на обработку и хранение данных для обучения модели, ее постоянную доработку путем проверки качества и непредвзятости массива данных, а также открытость перед пользователями в отношении применения и хранения их персональных данных.</p>