Как OpenAI защищает свои технологии от конкурентов?


Компания OpenAI решила не шутить с безопасностью после обвинений в краже технологий. Как сообщает Financial Times, меры безопасности были значительно усилены после выхода на рынок в январе 2025 года конкурирующей модели от китайского стартапа DeepSeek. OpenAI обвинила DeepSeek в неправомерном копировании своих моделей с помощью методов «дистилляции», и теперь компания приняла решение действовать.


Что нового в безопасности?

OpenAI внедрила политику «информационного ограничения», ограничивающую доступ сотрудников к конфиденциальным алгоритмам и новым продуктам. Например, обсуждение разработки модели OpenAI o1 в офисах теперь разрешается только проверенным членам команды, что напоминает сценарий из шпионского фильма — не дайте никому лишнего шанса!

Кроме того, технологии OpenAI теперь изолированы на автономных компьютерах, а доступ в офисы контролируется с помощью биометрии — сотрудники должны сканировать свои отпечатки пальцев. Также введена политика «отказ по умолчанию» для доступа в интернет: теперь нужно получать явное разрешение на внешние подключения.

Технологии #безопасность #OpenAI #кибербезопасность #шпионаж #защитаданных #интеллектуальнаясобственность


Физическая безопасность на высоте

Компания усилила физическую охрану своих дата-центров и увеличила штат сотрудников, отвечающих за кибербезопасность. Эти меры, похоже, отражают более широкие опасения относительно попыток иностранных конкурентов похитить интеллектуальную собственность OpenAI.


Но не стоит забывать и о «войне талантов» среди американских компаний в сфере ИИ. Учитывая участившиеся утечки комментариев генерального директора Сэма Альтмана, OpenAI, возможно, также пытается решить внутренние проблемы безопасности.


В общем, в OpenAI теперь всё под контролем, и шпионские игры им не понаслышке!

Комментарии
Последние статьи