OpenAI вводит процедуру верификации для организаций. API.. API. openai.. API. openai. безопасность.. API. openai. безопасность. Блог компании BotHub.. API. openai. безопасность. Блог компании BotHub. верификация.. API. openai. безопасность. Блог компании BotHub. верификация. ИИ.. API. openai. безопасность. Блог компании BotHub. верификация. ИИ. ии и машинное обучение.. API. openai. безопасность. Блог компании BotHub. верификация. ИИ. ии и машинное обучение. Информационная безопасность.. API. openai. безопасность. Блог компании BotHub. верификация. ИИ. ии и машинное обучение. Информационная безопасность. искусственный интеллект.

Согласно информации, опубликованной на прошлой неделе на сайте компании, в ближайшем будущем OpenAI может ввести процедуру верификации личности для организаций, желающих получить доступ к некоторым будущим моделям искусственного интеллекта.

OpenAI вводит процедуру верификации для организаций - 1

Процесс верификации, называемый «Проверенная организация», это «новый способ для разработчиков получить доступ к самым передовым моделям и возможностям платформы OpenAI», говорится на странице.

Для верификации требуется удостоверение личности государственного образца, выданное в одной из стран, поддерживающих API OpenAI. Удостоверение личности может подтверждать только одну организацию каждые 90 дней, и не все организации смогут пройти верификацию, сообщает OpenAI.

«В OpenAI мы серьёзно относимся к своей ответственности за то, чтобы ИИ был широко доступен и использовался безопасно, — говорится на странице. — К сожалению, небольшое число разработчиков намеренно используют API-интерфейсы OpenAI в нарушение наших правил использования. Мы добавляем процесс проверки, чтобы снизить риск небезопасного использования ИИ, продолжая делать продвинутые модели доступными для широкого сообщества разработчиков».

Новый процесс верификации может быть направлен на усиление безопасности продуктов OpenAI по мере того, как они становятся всё более сложными и функциональными. Компания опубликовала несколько отчётов о своих усилиях по выявлению и предотвращению вредоносного использования своих моделей, в том числе группами, предположительно базирующимися в Северной Корее.

Это также может быть направлено на предотвращение кражи интеллектуальной собственности. Согласно отчёту Bloomberg, опубликованному в начале этого года, OpenAI расследовала, не выводила ли в конце 2024 года группа, связанная с DeepSeek, китайской лабораторией искусственного интеллекта, большие объёмы данных через свой API, возможно, для обучения моделей, что является нарушением условий OpenAI.

OpenAI заблокировала доступ к своим сервисам в Китае прошлым летом.

Источник

Автор: mefdayy

Источник

Рейтинг@Mail.ru
Rambler's Top100