Исследователи из МТИ обнаружили — успешны лишь 5% проектов внедрения ИИ в разные бизнесы и административные системы. Не отстают и аналитики Gartner, в середине 2025 года на своей кривой хайпа опустившие генеративный ИИ в зону разочарования. Немного затихла и шумиха вокруг ИИ-агентов, когда обнаружилось, что доля ИИ в объеме работ по их разработке составляет лишь 5%, а остальное — традиционная программная инженерия, а не «вайб-кодинг».
К ИИ сегодня обращаются сотни миллионов людей, на его развитие тратятся триллионы, и общественное мнение постепенно переходит от обсуждения «каким мог бы быть ИИ» к тому, «чем же он является на самом деле».
Компания OpenAI 30 ноября 2022 года выпустила ChatGPT, и мир изменился. Действительно, за два месяца клиентами этого чат-бота стали 100 миллионов человек — самый быстрый прирост пользовательской базы какого-либо продукта за всю историю развития высоких технологий; в 2025 году к этой аудитории еженедельно примыкает 800 миллионов абонентов; сегодня почти 60% молодых людей до 30 лет — регулярные потребители LLM. Как и в свое время доткомы, ChatGPT всколыхнул всю ИТ-индустрию: Google экстренно выпустила Bard (Gemini), Microsoft инвестировала миллиарды в OpenAI, появился сонм различных моделей (Claude, Llama, Mistral и др.), ChatGPT сделал ИИ доступным для каждого — генеративный ИИ сейчас все глубже интегрируется в отраслевые бизнес-процессы.
Но главные изменения происходят в людях.
Еще в 2008 году журнал The Atlantic иллюстрацией к статье Николаса Карра «Google делает нас глупыми?» инициировал полемику в мыслящем сообществе. Сегодня обществу грозит еще более глубокий технологический сдвиг — пользователи Всемирной Паутины уже не только передают память на аутсорсинг, как тогда отмечал Карр, а через ChatGPT передают на аутсорсинг свое мышление. Полагаясь на ИИ в выполнении задач и принятии решений, потенциально человек ослабляет свои способности критического мышления, решения сложных задач и глубокого погружения в информацию. Пассивное потребление контента от ИИ подавляет интеллектуальное любопытство, снижает концентрацию внимания, вызывая зависимость, ограничивающую долгосрочное когнитивное развитие. Можно продолжать называть ИИ революцией, но точнее — разрушением, инструментом, подавляющим креативность.
Эффект Даннинга—Крюгера наглядно это иллюстрирует — наименее осведомленные люди обычно наиболее уверены в своих способностях, потому что не знают, чего они не знают. Более компетентные, напротив, менее уверены в себе, осознавая, какие сложности им еще предстоит преодолеть. ИИ синтетически завышает уровень интеллекта обратившегося к нему человека, снижая когнитивную нагрузку на его естественный мозг, приводя его в состояние умственной самоуспокоенности и делая его глупее.
Большие языковые модели получают персональные данные своих клиентов, которые еще и делятся с ними своими личными секретами, — происходит коллективный эксперимент на людях, причем практически без какого-либо контроля и внятного регулирования. Некоторые передовые системы ИИ уже демонстрируют обманчивое и вредоносное поведение, и тем не менее этим системам предоставляется все больше автономии для совершения действий и принятия решений. Вполне ожидаемо, что на этом фоне появляются все новые открытые письма в авторитетные международные организации с призывами если не к запрету, то хотя бы к более трезвой оценке ИИ. Например, недавно подобное обращение в ООН подписали, в частности, пять лауреатов Нобелевской премии; «крестный отец ИИ» Джеффри Хинтон; Стив Возняк; советник Папы Римского и даже Гарри, герцог Сассекский, отметивший, что «будущее ИИ должно служить человечеству, а не заменять его… Я убежден, что истинным показателем прогресса станет не скорость нашего движения, а то, насколько мудро мы им управляем. Второго шанса не будет». Уже к концу 2026 года в этом письме предлагается установить глобальный принудительный контроль над ИИ. У ООН есть опыт подобной активности, например Договор о нераспространении ядерного оружия 1970 года, правда, ряд стран либо его не подписали, либо вышли из пакта.
Эрик Шмидт, бывший генеральный директор Google, обращает внимание общественности: «Самое страшное в ИИ не то, что он станет умнее нас, а то, что мы не успеем понять, когда именно это произойдет». Успокаивает то, что этого пока не случилось, — в одном из интервью Шмидт говорит, что когда меняется ситуация или сам предмет работы, человек способен переносить схему действия — применять инструменты, отработанные в других сферах. ИИ этого еще не умеет — при изменении цели или контекста LLM разваливаются. Подобное явление получило название "неустойчивость целей" (“non-stationarity of objectives“). Человек же в этой ситуации действует не столько по данным, сколько по схемам и методам, известным ему из других областей деятельности, которые можно перестраивать и переносить между собой. Однако исследователи и разработчики ведущих научных центров и лабораторий ИИ-вендоров (Google DeepMind, OpenAI, МТИ, Stanford, Google Research) уже ищут способы научить ИИ не просто обучаться на имеющихся наборах, а переучиваться при смене задачи: менять цели, сохранять смысл действия и т. п. в контексте meta-learning, continual learning и transfer learning.
Сегодня ИИ делает невероятные вещи — снимает рутину, повышает точность, ускоряет обработку данных. Но здравомыслящее общество обеспокоено — там, где раньше была человеческая интуиция, поиск и эмоциональная ошибка, постепенно возникает выверенная последовательность решений. Все вроде правильно, но не превращает ли ИИ развитие в процесс без развития? Когда технология берет на себя все сложное, человеку остается все меньше пространства для формирования в конечном счете развития — «О сколько нам открытий чудных… И опыт, сын ошибок трудных…», однако вместе с ИИ «просвещенья дух» вряд ли уже будет способен подготовить новые открытия.
Похоже, правы аналитики Gartner, возможно, втайне уже надеясь, что, как и «пузырь доткомов», лопнет и пузырь ИИ.
Дмитрий Волков
DOI: 10.51793/OS.2025.12.39.001