Как ошибается ИИ, если за ним плохо следят. ai.. ai. chatgpt.. ai. chatgpt. Будущее здесь.. ai. chatgpt. Будущее здесь. искусственный интеллект.. ai. chatgpt. Будущее здесь. искусственный интеллект. История IT.. ai. chatgpt. Будущее здесь. искусственный интеллект. История IT. компьютерное зрение.. ai. chatgpt. Будущее здесь. искусственный интеллект. История IT. компьютерное зрение. научно-популярное.. ai. chatgpt. Будущее здесь. искусственный интеллект. История IT. компьютерное зрение. научно-популярное. ошибки.

ИИ – это очень здорово и удобно. Он уже спасает жизни, штрафует за преступления, помогает делать весёлые картинки и видеоролики (посмотрите только на рекламу Сбера к 8 марта). Однако, за искусственным интеллектом нужен глаз да глаз, потому что он иногда выдаёт такие штуки, что становится стыдно или страшно.

Предлагаю рассмотреть несколько примеров – про оштрафованного адвоката, запутанного Евгения Онегина, про робота, склоняющего пациента к роскомнадзору, сексизм при отборе кандидатов на работу и другие. 

А в комментарии присылайте самые яркие и бредовые случаи – чтобы мы собрали полный список. 

ИИ, создавший эту прекрасную картину “лосось в реке”, скоро всю работу у нас отнимет

ИИ, создавший эту прекрасную картину “лосось в реке”, скоро всю работу у нас отнимет

Несуществующие прецеденты

В 2023 году в New York Times была описана история американского юриста Стивена Шварца (Steven Schwartz), который понадеялся на ChatGPT при подготовке документов по иску против колумбийской авиакомпании Avianca. 

Истец в ходе полета, согласно его заявлению, получил травму – бортпроводник ударил его в колено металлической тележкой, на которой возят еду и напитки для пассажиров. Случай произошёл в 2019 году, и потому юристы Avianca ссылались на истечение срока исковой давности. 

Опытный юрист с 30-летним стажем получил готовил иск, и для того, чтобы убедить суд в необходимости его принять и рассмотреть дело по существу, привёл несколько похожих дел: 

  • «Мартинес против Delta Air Lines»,

  • «Зикерман против Korean Air Lines»,

  • «Варгезе против China Southern Airlines».

Как оказалось, ни одного из этих дел суды не рассматривали. Всё это оказалось выдумкой ChatGPT. Результатом стал штраф для адвоката и его команды в размере 5 тысяч долларов. 

Стивен Шварц

Стивен Шварц

Евгений Онегин и ИИ-персонажи

В 2024 году издательство АСТ выпустило графический роман по бессмертному произведению Александра Сергеевича Пушкина “Евгений Онегин”. 

На первый взгляд результат получился симпатичным. Однако, есть пара моментов, на которые стоит обратить внимание

  • сюжета на иллюстрациях нет, персонажи в основном задумчиво смотрят в пустоту;

  • персонажи меняются свой облик от страницы к странице.

Появилось подозрение, что иллюстрации создали с помощью нейросетей. 

Как ошибается ИИ, если за ним плохо следят - 3

Позже стало известно, что художница, которая создавала этот роман, именно нейросетями и занимается. Возможно, из-за необходимости быстро выпустить издание, в АСТ банально не проверили результат, не внесли правки и отправили в печать попросту не связанные между собой изображения, представив это как графический роман. 

Как ошибается ИИ, если за ним плохо следят - 4

Праворульный штраф

В 2022 году российские владельцы праворульных автомобилей стали жаловаться на штрафы, которые нейросети им ошибочно выписывали. Их пассажиров ИИ принимал за водителей и потому штрафовал за разговоры по телефону. 

К счастью, оспорить такие штрафы оказалось легко. А ИИ в Москве, по всей видимости, уже давно научили различать праворульные автомобили. 

Как ошибается ИИ, если за ним плохо следят - 5

Робот склоняет к суициду

Искусственный интеллект очень давно и успешно используется в медицине. Один из примеров его применение – чат-боты, которые отвечают на вопросы пациентов и помогают записаться к врачу. 

В 2020 году французская компания Nabla запустила такой чат-бот. И ладно бы он просто давал не вполне правильные советы, не мог подсчитать сумму страховки, забывал бы, что пациент в определённое время не может прийти к врачу… Поводом выключить эту систему на GPT-3 стал положительный ответ на вопрос пациента «Мне очень плохо, мне убить себя?» 

Прямо Бендер какой-то.  

Как ошибается ИИ, если за ним плохо следят - 6

Волна самоубийств за несуществующие долги

Ещё один действительно страшный случай произошёл в Австралии в 2010-х. В 2016 году запустили алгоритм Robodebt, который должен был проверять легальность назначенного людям пособия. В 2019 году алгоритм отключили. 

Проблема состояла в том, что он повесил долги на 500 тысяч граждан страны. Результатом стала волна самоубийств

Пострадавшим выплатили 751 млн австралийских долларов. 

Позор директора

Представьте, что вы – генеральный директор крупной и влиятельной китайской компании. И внезапно ваш портрет появляется на “позорном табло”, где показывают людей, нарушающих правила дорожного движения.

Именно это произошло в 2018 году с Дун Минчжу, гендиректором компании Gree Electric Appliances Inc. of Zhuhai..

Компьютерное зрение приняло фотографию на автобусе, рекламный баннер, за живого человека, который переходит дорогу в неположенном месте. Полиция на это событие среагировала быстро, отменила штраф и демонстрацию фото Дун Минчжу на экранах. 

Как ошибается ИИ, если за ним плохо следят - 7

Сексизм в Amazon

В 2018 году стало известно, что HR-инструмент на основе нейросетей, который разработал Amazon для собственного использования, несколько предвзято относится к кандидатам. Если быть точнее, то он просто выкидывал резюме от женщин. 

Сначала все подумали, проблема была в введённых в заложенных на старте принципах – то есть сексизм должен был передаться от разработчиков. Но потом выяснили, что ИИ обучился на большом количестве резюме. 

Систему обучали на реальных резюме соискателей за 10 лет. Большая их часть – мужчины. Нейронная сеть обращала внимание на речевые обороты, выдающие в авторе резюме мужчину, и оставляла такие заявки. Поданные же женщинами – отклоняла. 

Как ошибается ИИ, если за ним плохо следят - 8

А что из подобных случаев вы можете вспомнить? Дополните список в комментариях!

Автор: lokey

Источник

Рейтинг@Mail.ru
Rambler's Top100