OpenAI открыла доступ к специальной версии GPT‑5.4 для безопасников
Компания OpenAI постепенно упрощает использование своих моделей для тех, кто работает над защитой цифровых систем. В феврале этого года стартовала программа Trusted Access for Cyber, или TAC. Благодаря ей, специалист по безопасности подтверждает свою личность, и система перестаёт беспокоить его избыточными проверками на каждом шагу. Тогда это был скорее пилотный проект с ограниченной фокус-группой.
Теперь программу расширяют. Появилось несколько уровней доступа, и самый высокий из них даёт возможность работать с моделью GPT‑5.4‑Cyber. Модель специально дообучили для выполнения задач по кибербезопасности и, что важнее, заметно ослабили в ней внутренние запреты, которые в обычных моделях блокируют потенциально опасные действия.
Что умеет GPT‑5.4‑Cyber?
Главная новинка — встроенная возможность бинарного реверс‑инжиниринга. Говоря проще, модель может анализировать уже скомпилированные программы, искать в них вредоносный код, находить уязвимости и оценивать общую надёжность сборки, не имея доступа к исходникам. Для безопасников это настоящий подарок: раньше такие задачи требовали либо специальных инструментов, либо огромного опыта, а теперь их можно решать быстрее и с меньшим порогом вхождения.
Кроме того, GPT‑5.4‑Cyber реже отказывается выполнять запросы, которые формально выглядят как «двойного назначения» — например, демонстрация атаки для последующей защиты от неё. Модель понимает контекст и не блокирует легитимную исследовательскую работу. При этом OpenAI подчёркивает, что это не вседозволенность, а именно уменьшение запретов для проверенных специалистов.
Кто и как получит доступ
Доступ к новой модели будет ограниченным. Сначала его дадут только проверенным вендорам в области безопасности, исследовательским группам и крупным организациям, которые уже сотрудничают с OpenAI. Причина осторожности вполне объяснима, так как чем меньше ограничений на модели, тем выше риск, что она попадёт в руки злоумышленников или будет использована в обход правил.
Особое внимание уделяют ситуациям с низкой видимостью, таким как режим Zero Data Retention. Если разработчик обращается к моделям OpenAI через сторонние платформы, где компания не видит ни самого пользователя, ни его окружение, ни истинную цель запроса, доступ к самым мощным кибер‑версиям могут не дать или сильно ограничить. Это разумная предосторожность, хотя некоторые энтузиасты, вероятно, сочтут её излишней бюрократией.
Процесс получения доступа выглядит достаточно просто. Частному пользователю достаточно пройти верификацию личности на специальной странице chatgpt.com/cyber. Компании обращаются к своему представителю OpenAI и запрашивают доверенный доступ для команды. Те, кто уже участвует в программе TAC, могут заполнить форму для перехода на более высокий уровень, в том числе для работы с GPT‑5.4‑Cyber. Ничего сложного, но бюрократические препоны все-таки останутся.
Прогнозы на будущее
В OpenAI считают, что текущие методы защиты достаточно надёжны для массового развёртывания сегодняшних моделей. Но для будущих, более мощных версий, вероятно, потребуются уже совсем другие механизмы безопасности. Особенно это касается моделей, которые специально делают все более доступными для решения проблем кибербезопасности. Такие модели всегда будут поставляться с жёсткими ограничениями по кругу пользователей и условиям применения.
В долгосрочной перспективе компания ожидает, что даже самые лучшие специализированные модели сегодняшнего дня быстро устареют. Способности будущих систем возрастут настолько, что потребуют принципиально новых защитных барьеров. Пока же OpenAI делает ставку на проверенных людей и прозрачную верификацию. Это не панацея, но вполне прагматичный шаг в нынешних условиях.