anthropic. - страница 4

Лучший ИИ для разработки получил обновление: вышел Claude 3.7

Модель уже стала доступна на https://claude.ai, даже для бесплатных юзеров.Гибридная модель для кодинга и рассуждений

Результаты взлома Claude получены, и хакеры победили

Результаты джейлбрейка Claude от Anthropic уже готовы. После пяти дней напряженных исследований, в ходе которых было обработано более 300 000 сообщений и, по оценкам Anthropic, затрачено 3700 часов коллективных усилий, защита системы искусственного интеллекта наконец-то дала трещину.Исследователь Anthropic Ян Лейке поделился на X

Anthropic готовит новую гибридную модель Claude, превосходящую o3-mini-high в кодинге

Как сообщает The Information, Anthropic планирует представить свою следующую крупную модель, которая сочетает традиционные языковые возможности с продвинутыми функциями логического анализа.

Генеральный директор Anthropic Дарио Амодей предупреждает о «гонке» за пониманием AI по мере его усиления

Сразу после завершения AI Action Summit в Париже соучредитель и генеральный директор Anthropic Дарио Амодей назвал это мероприятие «упущенной возможностью». Он добавил, что «необходимо уделять больше внимания и действовать быстрее по нескольким направлениям, учитывая темпы развития технологий», в заявлении, опубликованном во вторник.

Я завалил интервью в Антропик, но пришел поделиться опытом

Антропик - те чуваки, которые делают Claude. Альтернатива ChatGPT от OpenAI с оооочень серьезными инвестициями от Amazon. По легенде у них есть модель сильнее o3 от OpenAI, но он настолько угорели по безопасности, что боятся ее релизить.На что подавался: Research Fellowship.Из необычного, они попросили указать контакты референсов - ребят, с которыми вы работали, и которые могут дать на вас фидбек. Да-да, теперь такое не только в академии!Интервью проходило в несколько этапов:1. Онлайн-кодинг (полтора часа).

Новая система безопасности на основе AI от Anthropic попала в руки хакеров за считанные дни

Всего за шесть дней с момента запуска проекта кому-то удалось обойти все механизмы безопасности, разработанные для защиты модели искусственного интеллекта Anthropic.Ян Лейке, бывший член команды по выравниванию OpenAI, ныне работающий в Anthropic, объявил на X, что один участник успешно преодолел все восемь уровней испытания. Коллективные усилия включали около 3700 часов тестирования и 300 000 сообщений от участников. Однако Лейке отмечает, что пока никто не нашел универсального джейлбрейка, который мог бы решить все уровни испытания сразу.

Гендиректор Anthropic: DeepSeek показал себя «худшим» в тесте безопасности данных о биологическом оружии

Генеральный директор Anthropic Дарио Амодеи обеспокоен работой китайской DeepSeek и её моделью R1. В интервью подкасту ChinaTalk Джордана Шнайдера он сказал, что DeepSeek сгенерировала информацию о биологическом оружии в ходе теста безопасности.Производительность DeepSeek оказалась «худшей из всех моделей, которые мы когда-либо тестировали», заявил Амодеи. По его словам, у модели «нет никаких барьеров против генерации чувствительной информации».

Генеральный директор Anthropic предупреждает об угрозах со стороны китайского DeepSeek

Генеральный директор Anthropic Дарио Амодей выразил серьезную обеспокоенность по поводу конкурента DeepSeek — китайской компании в сфере искусственного интеллекта, которая произвела настоящий фурор в Кремниевой долине своей моделью R1. И его опасения могут оказаться гораздо серьезнее, чем стандартные вопросы о передаче данных пользователей в Китай.

Anthropic просит кандидатов не использовать нейросети в откликах на вакансии

В вакансиях на сайте компании Anthropic, которая разрабатывает семейство языковых моделей Claude, заметили просьбу не использовать нейросети для откликов. Компания хочет оценить коммуникативные навыки будущего сотрудника, а не возможности чат-бота.Страница отклика на вакансию на сайте Anthropic состоит

Anthropic представила новый метод защиты больших языковых моделей от взломов

Спустя два года после появления ChatGPT на рынке появилось множество больших языковых моделей (LLM), и почти все они по-прежнему уязвимы для взлома — специальных запросов и других обходных путей, которые заставляют их генерировать вредоносный контент.

Рейтинг@Mail.ru
Rambler's Top100