Будет ли третья зима искусственного интеллекта? Возможно ли это вообще и не рано ли задаваться такими вопросами?

Наверное, вы меня сейчас закидаете токенами помидорами.
Мой ответ: нет, не рано. Более того, на мой взгляд, задумываться об этом сейчас — не просто не рано, а необходимо.
Почему?
Конечно, сейчас мы переживаем огромный бум языковых моделей — ChatGPT, Claude, Gemini, Copilot и другие, которые просто взорвали рынок. Инвесторы вливают миллиарды, корпоративные стратегии перестраиваются под ИИ, вакансии “AI Prompt Engineer” появляются на LinkedIn как грибы после дождя.
Звучит как революция. Но именно в такие моменты стоит быть особенно внимательными: в истории ИИ уже были две “зимы” и обе начались не из-за отсутствия потенциала, а из-за несовпадения между ожиданиями и реальностью.
Но может ли нынешний бум привести к очередной “зиме ИИ”? Думаю – да, хотя ситуация сегодня сильно отличается от того, что было в 70-х и 80-х годах прошлого века. Я это вижу так – сейчас мы находимся в начале первой волны этого бума.
Что происходило раньше?
-
Первая зима ИИ — 1970-е
После волны интереса к экспертным системам в 60-х оказалось, что они слишком хрупки, дорогие в поддержке и неспособны адаптироваться к меняющимся условиям. Финансирование быстро схлопнулось, интерес ослаб. -
Вторая зима ИИ — конец 80-х – начало 90-х
Японская программа “Пятое поколение компьютеров” и множество амбиций в области символического ИИ не дали ожидаемых результатов. Индустрия вновь остыла.
Итого, в прошлые разы зима наступала, когда ожидания слишком раздувались, а реальность не оправдывала надежд. Сейчас тоже ситуация похожая: куча людей верят, что LLM могут заменить всякого и решить любые задачи, но это, к счастью, далеко от правды.
А что у нас сейчас?
Сегодня технологии куда более зрелые. LLM реально умеют писать код, генерировать тексты, обрабатывать документы. Прогресс бесспорен. Но…
-
Реальный ROI от ИИ пока часто неоправданно переоценён.
Gartner недавно опубликовал данные, по которым большинство компаний не могут точно измерить конкретную экономическую выгоду от внедрения LLM. По сути — мы верим, что это работает, потому что кажется “умным”. -
Инфраструктурные и энергетические издержки зашкаливают.
Обучение GPT-4 стоило сотни миллионов долларов и потребовало колоссальных мощностей. По прогнозам, к 2027 году ИИ может потреблять до 3% мирового электричества. Масштабируемость — под вопросом, ведь поддерживать её вечно не возможно. -
Риски и ошибки могут расти.
От предвзятостей и галлюцинаций до утечек данных и “обманутых” пользователей. Часто LLM производят видимость интеллекта, но на поверку оказываются статистической болтовнёй. -
Регуляторы не дремлют.
В ЕС принят AI Act, в США идёт обсуждение обязательной сертификации. Всё больше давления — и с точки зрения этики, и с точки зрения безопасности (ведь уже сегодня ИИ – это “новое ядерное оружие”).
Что дальше?
Мы видим признаки пузыря. IPO компаний, у которых нет продукта, но есть “ИИ-визия”. Стартапы без бизнес-моделей. Десятки одинаковых “помощников” на базе API OpenAI.
Когда пузырь сдуется (а он обязательно сдуется), финансирование частично уйдёт. Крупные компании пересмотрят бюджеты. Многие стартапы исчезнут. И в этот момент будет соблазн снова сказать: “ИИ — переоценён”.
Но, в отличие от прежних “зим”, полного краха не будет.
ИИ уже вшит в инфраструктуру: от облачных API до автоматизации офисной рутины. Рынок просто перейдёт из фазы ажиотажа в фазу зрелости.
Так зима или всё-таки нет?
Скорее — осень ИИ: рост замедлится, рынок подохладится, хайп уляжется. Но развитие продолжится, просто в других форматах: компактные open-source модели, которые можно запускать локально, больше внимания к узкоспециализированным ИИ-инструментам, а не “всезнайкам” (или же их комбинациям), а также интеграция ИИ в реальные рабочие процессы — тихо, без фанфар.
И когда это случится?
Я правда не знаю, но я уверен – случится.
Просто жизненный опыт (хотя может это уже не релевантно?) мне это подсказывает.
По моим ощущениям, первые признаки “осени” проявятся уже в ближайшие 18-24 месяцев.
Личное наблюдение
Сегодня я голосом (!) попросил ChatGPT дописать док-блоки к моему коду — и он сделал это прямо в моей IDE, без копипасты. Я сделал ревью, остался доволен и смержил изменения в проект. Именно такие интеграции и будут двигать ИИ вперёд — не шоу, а вшитая незаметная помощь.
Противоречит ли это моим словам выше? В каком-то смысле — да.
Но именно в этом и суть: технология полезна, но не магия.
Она даёт реальную пользу — если не обманывать себя и не строить из неё идола.
Автор: samako