безопасность.

OpenAI корректирует политику безопасности в ответ на конкурентное давление

OpenAI обновила свою систему обеспечения готовности — внутреннюю систему, которую она использует для оценки безопасности моделей ИИ и определения необходимых мер защиты во время разработки и внедрения. В обновлении OpenAI заявила, что может «скорректировать» свои требования к безопасности, если конкурирующая лаборатория ИИ выпустит систему «высокого риска» без аналогичных мер защиты.

OpenAI вводит процедуру верификации для организаций

Согласно информации, опубликованной на прошлой неделе на сайте компании, в ближайшем будущем OpenAI может ввести процедуру верификации личности для организаций, желающих получить доступ к некоторым будущим моделям искусственного интеллекта.

OpenAI потребует от организаций пройти идентификацию для доступа к некоторым будущим моделям ИИ

OpenAI вскоре может потребовать от организаций пройти процесс идентификации, чтобы они могли получить доступ к некоторым будущим моделям искусственного интеллекта.

Какие функции родительского контроля полезны на каждом этапе развития вашего ребенка (мнение родителя)

Добраться до космоса

Во Всемирный день авиации и космонавтики не мешает напомнить и о других событиях, напрямую связанных с весьма серьезными опасностями, поджидающими людей в космосе, и о которых сейчас почти ничего не пишут таблоиды.

Как я начал бояться вайб-кодинга, или почему мы доверяем ИИ больше, чем коллегам

Ещё год назад я смеялся над мемами про Copilot, который "пишет весь код за тебя". Теперь - я уже не смеюсь. Потому что вижу, как всё чаще код влетает в main почти без участия человека. Его не пишут - его принимают. Почти как оракульское послание.Это не всегда плохо. Но иногда - страшно.Началось с удобстваЯ не анти-ИИ и не неолуддит - я сам пользуюсь им в работе. Более того - я первый, кто радовался, когда Copilot или Claude помогали дописать скучные if-else, док-блоки и избавляли от гуглинга array_unique третий раз за неделю. Это круто. Это ускоряет. Это экономит силы. Но со временем, что-то начало меняться.

Сотрудничество Google и NVIDIA для использования ИИ в условиях строгих требований безопасности

Google Cloud и NVIDIA сотрудничают для внедрения возможностей агентского ИИ в локальных средах. Это позволит предприятиям со строгими требованиями к безопасности использовать модели Google Gemini, сохраняя при этом суверенитет данных и соответствие требованиям безопасности.

Пять вещей, которые не стоит рассказывать ChatGPT

Не позволяйте вашем мыслям стать учебным материалом для ИИ — или всплыть в случае утечки данных.Неважно, какого чат-бота вы выберете: чем больше вы делитесь, тем полезнее он становится. Пациенты загружают результаты анализов для расшифровки, разработчики отправляют фрагменты кода для отладки. Однако некоторые исследователи ИИ советуют с осторожностью относиться к тому, что мы рассказываем этим человечно звучащим инструментам. Особенно рискованно делиться такой информацией, как паспортные данные или корпоративные секреты.Дисклеймер: это вольный перевод 

Исследование уязвимостей LLM-агентов: опыт Red Teaming

Привет, Хабр!Сначала об определениях. LLM Red teaming — практика тестирования больших языковых моделей (например, GPT), направленная на выявление уязвимостей, нежелательного поведения и способов их взлома (jailbreak). Суть в том, чтобы через специальные подсказки или методы обойти защитные механизмы и ограничения LLM.

Мошенники используют «дыры» в безопасности малых банков РФ, чтобы отмывать через них деньги

Злоумышленники используют уязвимость малых банков для того, чтобы отмывать через них деньги, выяснили «Известия».

123
Рейтинг@Mail.ru
Rambler's Top100