Мультимодальные модели тотально страдают селективным восприятием
Проводя свои текущие исследования для задач сегментации и распознавания объектов на изображениях, я задал простой вопрос многим мультимодальным моделям с целью оценить их способности к интерпретации деталей изображения.Результат был, мягко говоря, странным.
ИИ может определить состояние животных лучше, чем ветеринары
Искусственный интеллект научили сканировать лица животных на предмет признаков стресса и боли, и теперь он справляется получше людей. Справится ли он в будущем с более сложными эмоциями?Шесть часов утра, дождь. Где-то на юго-востоке Англии просыпаются сотни бело-розовых свиноматок и спешат на завтрак. Толкаясь, фыркая и пуская слюни, они нетерпеливо рысят к десяткам кормушек.Но прежде, чем получить еду, им нужно сфотографироваться.
ИИ поможет узнать, счастлива ли ваша свинья
Искусственный интеллект научили сканировать лица животных на предмет признаков стресса и боли, и теперь он справляется получше людей. Справится ли он в будущем с более сложными эмоциями?Шесть часов утра, дождь. Где-то на юго-востоке Англии просыпаются сотни бело-розовых свиноматок и спешат на завтрак. Толкаясь, фыркая и пуская слюни, они нетерпеливо рысят к десяткам кормушек.Но прежде, чем получить еду, им нужно сфотографироваться.
Google призналась, что демонстрация мультимодальности Gemini — это постановка
6 декабря вместе с семейством моделей Gemini компания Google показала видеоролик, где человек взаимодействует с мультимодальной языковой моделью. На видео пользователь общается голосом, рисует и показывает жесты, а Gemini распознаёт увиденное и всячески развлекает. Как заметили наблюдатели и как позже признала Google, видеоролик преувеличивает технические способности ИИ.