2023 год войдет в историю как год триумфа генеративного искусственного интеллекта (Generative Artificial Intelligence, GenAI). Большие лингвистические модели типа ChatGPT достигли такого уровня совершенства, когда генерируемый контент стало уже практически невозможно отличить от сделанного человеком. При этом создаваемый с помощью ChatGPT текст показывает уровень оригинальности даже выше, чем у человека, который часто использует стандартные фразы при написании. Расширение моделей на генерацию программного кода, оригинальных рисунков и видео открыло новые перспективы повышения производительности труда программистов, оформителей, контент-менеджеров и пр. Все это привело к тому, что все чаще стали говорить о создании уже в ближайшей перспективе сильного, или общего, искусственного интеллекта (Artificial General Intelligence, AGI), равного по возможности человеческому интеллекту.

Типы искусственного интеллекта и пути создания сильного ИИ

Сильный (общий) искусственный интеллект получил свое название в качестве противопоставления слабому, узкому ИИ (Narrow Artificial Intelligence, NAI) или просто ИИ. NAI — это инструменты, наиболее часто используемые в деятельности организаций и в обычной жизни для распознавания объектов (например, в задачах видеофиксации), для предсказания событий и т. п. Успех в развитии этих инструментов во многом связан с возможностью использования машинного обучения (ML) и особенно глубинного машинного обучения (Deep Learning, DL) в обычных вычислительных системах. Технология DL, предполагающая разбиение объекта исследования на большое число параметров за счет их сочетания на разных уровнях, известна давно, но требовала больших вычислительных мощностей. Новые возможности появились с развитием графических процессоров, работающих с матрицами данных и позволяющих быстро обрабатывать параметры для моделей машинного обучения всех типов.

Технологии ML и DL легли и в основу генеративного ИИ, правда, при этом требуется суперкомпьютер, способный обрабатывать миллиарды связей (нейронов) — сегодня такие большие лингвистические модели, как ChatGPT, оперируют нейронными сетями от 150 млрд до 1 трлн нейронов. Для сравнения, человеческий мозг содержит примерно 90 млрд нейронов, из которых только 16 млрд отвечают за интеллектуальную деятельность (находятся в коре головного мозга). Не случайно сегодня так много говорят о потенциальных возможностях генеративного ИИ. Более того, многие лидеры ИТ-рынка даже заговорили о необходимости приостановки разработок в области генеративного ИИ (весной 2023 года Илон Маск, Стив Возняк и другие авторитетные эксперты инициировали петицию, которую подписали более 30 тыс. ИТ-специалистов, https://futureoflife.org/open-letter/pause-giant-ai-experiments), пока не будут сформулированы правила его использования, снижающие потенциальные риски нарушения этики или мошенничества.

Впрочем, одновременно с ростом числа оптимистов создания AGI на основе GenAI растет и армия скептиков. Основной аргумент тех, кто не видит в генеративном ИИ предвестника AGI, заключается в том, что сгенерированный текст (программный код, изображение и т. п.) имеет смысл лишь для создавшего его с использованием GenAI человека, но не имеет смысла для самого GenAI. В известной статье [1] большие лингвистические модели были названы «стохастическим попугаем», подчеркивая, что модели GenAI создают контент, который для них непонятен. Возможно, что как раз сила GenAI — оперирование с огромным числом параметров — является и его слабостью. Генеративные модели настолько точно копируют человеческие возможности, что скрывают отсутствие в них главного — умения размышлять. Дело в том, что человек учится не создавать правильные фразы, а выражать ими свои мысли и эмоции. Последнего как раз у GenAI нет.

Генеративный ИИ — не единственный путь к созданию сильного ИИ. Еще одно направление в развитии AGI — объединение различных функций, реализуемых ИИ, в одну модель (возможно, материализуемой в одном чипе). Кстати, именно поэтому AGI получил название «общий» — решающий сразу многие задачи. Имеется направление в создании сильного ИИ, связанное с моделированием поведения мыслящих существ на основе взаимодействия агентов (Intelligent Distribution Agent, IDA). Для агентов задаются внешние ограничения и возможности использования каких-либо инструментов, а далее агенты обучаются путем проб и ошибок, выстраивая стратегии поведения, коммуникации друг с другом и т. п. Такое машинное обучение называют «обучением с подкреплением» (Reinforcement Learning, RL), и предполагается, что объединение GenAI с RL и позволит реализовать AGI. Есть совсем уникальное направление, согласно которому можно создать AGI, полностью промоделировав работу человеческого мозга.

Бытует предположение, что при разработке человекоподобного искусственного интеллекта будет автоматически создан так называемый суперинтеллект (Artificial Super Intelligence, ASI). Вычислительные возможности ИИ уже сегодня многократно превышают человеческие, и если он научиться мыслить как человек, то равных ему среди людей не будет — ASI станет суперинтеллектом. Впрочем, несмотря на то, что имеется много различных классификаций ИИ, как уже существующих, так и планируемых в будущем, общего понимания, что же такое AGI, нет. Потому что до сих пор вообще нет понимания, как работает мозг человека. Однако это не означает, что нельзя двигаться к созданию AGI.

Архитектурный подход к созданию AGI

Сегодня нейрофизиологи построили детальную картину того, какие области человеческого мозга отвечают за ту или иную деятельность человека. Вместе с тем имеющаяся информация еще не позволяет понять, как человек мыслит, что не удивительно. Представим, что мы находимся в ЦОДе предприятия и можем перерезать любой провод и в зависимости от того, в каком отделе предприятия возникнут проблемы с сетью, выяснить, какие конкретно серверы обслуживают то или иное подразделения (бухгалтерию, коммерческий или производственный отдел). Однако понять, что это за предприятие и что делают его подразделения, нельзя. Примерно так же сегодня исследуется работа мозга человека, где и что в нем происходит, известно, но как и почему — нет.

Аналогия с предприятием выбрана не случайно — инфраструктурный уровень предприятия (локализованный в ЦОДе) отвечает не за работу предприятия, а за работу информационных баз данных. На уровне инфраструктуры невозможно понять, чем занимается предприятие. Базы данных, в свою очередь, поддерживают работу программных приложений, а те уже помогают решать конкретные прикладные задачи, стоящие перед сотрудниками предприятия. Так работает любая корпоративная информационная система, а уровневый подход к ее описанию — это архитектурный подход, еще в прошлом веке предложенный Джоном Захманом [2] и положенный в основу стандарта TOGAF (The Open Group Architectural Framework). На рис. 1 изображена схема работы страховой компании согласно архитектурному подходу, составленная с помощью специального инструмента моделирования архитектуры предприятия ArchiMate.

Разбиение на уровни — один из вариантов общесистемного подхода к описанию сложных объектов, а аналогия между работой мозга и корпоративного ЦОДа позволяет предположить, что архитектурный подход можно использовать и для моделирования интеллектуальной деятельности человека. Именно такое предположение было сделано в работе [3] для описания модели сильного искусственного интеллекта. Более того, в этой работе для моделирования AGI был использован тот самый ArchiMate, используемый при визуализации архитектурных моделей предприятия. Понятно, что число уровней и тем более их название отличаются при моделировании работы предприятия и деятельности человека. Но суть остается той же.

Перспективы создания сильного искусственного интеллекта
Рис. 1. Схема взаимодействия между слоями в модели архитектуры страховой компании

В архитектурной модели AGI были выбраны пять уровней, расположенных на трех слоях (рис. 2). Нижний, технологический слой, на уровнях которого («Энтропия» и «Процессы») реализуются энергетические и алгоритмические функции, как раз и отвечает за инфраструктурное обеспечение модели AGI. Средний слой, на котором реализуются социальные и информационные функции, отвечает за отношения AGI с другими мыслящими существами, живыми или искусственными. Социальные отношения являются очень важными для понимания и моделирования интеллекта, поскольку знания людей не сосредоточены только в их головах, а распределены между ними [4], формируя коллективный интеллект. Без социального общения нет и интеллекта. Известны случаи, когда маленький ребенок воспитывался среди животных, и тогда уровень его сознания оказывался на уровне сознания животных. Если бы новорожденный ребенок смог выжить в природе и вырасти вообще вне социума, даже с животными, уровень его сознания скорее всего соответствовал бы растительному. Вот почему направление создания AGI путем копирования человеческого мозга перспектив не имеет — необходимо встраивание интеллекта в социум.

Рис. 2. Уровни и слои архитектуры AGI

Наконец, на верхнем уровне архитектурной модели AGI находится слой, реализующий собственно интеллектуальную деятельность. Животные, как и люди, могут обучаться и предсказывать те или иные события на основе приобретенного опыта, однако считается, что они не могут рефлексировать, осознавать свою деятельность и находить причины своего поведения. Для рефлексии — наблюдения за собственным поведением как бы со стороны — необходимы другие люди и развитая система коммуникаций (язык), поддерживающая диалог между людьми. Безусловно, рефлексия возможна внутри самого человека, когда он имитирует общение с кем-либо, но такая имитация (внутренний диалог) возможна лишь при условии, когда у человека уже имеется большая практика общения с другими людьми. Рефлексия позволяет человеку или AGI обрести субъектность (когда он понимает свое место среди других людей или AGI) — актуализировать свой интеллект.

Уровни сильного искусственного интеллекта

Перспективы создания сильного искусственного интеллекта
Рис. 3. Архитектурная модель AGI

Архитектурный подход позволяет построить уровневую модель сильного ИИ. На рис. 3 представлена такая модель, для описания которой был использован ArchiMate. Рассмотрим подробнее функции, реализуемые на разных уровнях.

Важно, чтобы функции нижнего уровня были обеспечивающими для уровней верхнего уровня — в этом суть архитектурного подхода как для предприятий, так и для иных систем. Однако в практике корпоративной автоматизации бывают случаи, когда верхние уровни обеспечивают нижние, например, когда в отсутствие хороших классификаторов и справочников сотрудники организации вынуждены многократно заполнять те или иные отчеты, которые должны автоматически формироваться из существующих баз данных. Больной человек тоже вынужден отвлекаться на лечение организма (функция нижнего уровня), снижая таким образом качество своей интеллектуальной жизни. Если же система «здоровая», условие подчиненности уровней нижних верхним должно соблюдаться.

На самом нижнем уровне архитектурной модели реализуются базовые функции, характерные для любых организмов, выживающих в условиях энтропии, которая пытается разрушить все системы: энергообеспечение, функции ввода и вывода информации (органы чувств у человека), память и нейросети (у человека, по-видимому, последние реализованы совместно в нейронах мозга). Такие функции реализуются у самых примитивных организмов либо у обычного компьютера. На следующем уровне реализуются задачи, позволяющие живым организмам приспосабливаться к окружающей среде. Эти же задачи сегодня могут решаться и искусственным интеллектом. Среди функций этого уровня: распознавание, предсказание и реализация алгоритмов. Первые две реализуются в ИИ с использованием глубинного обучения, а последняя — при помощи обучения с подкреплением. Фактически можно сказать, что развитие различных моделей ИИ сегодня находится на втором уровне архитектурной модели AGI.

Третий уровень — один из самых важных, поскольку реализует социальную функцию интеллекта. Эффективность моделей генеративного ИИ оказалась высокой во многом благодаря тому, что в обучении модели в качестве «учителей» выступали миллионы людей. Обучение как раз и требует социализации. Низшие организмы передают по наследству информацию обо всем своем поведении, развитие осуществляется в основном за счет мутации генов и появления новых типов поведения. Чем выше в своем развитии организмы, тем больше приобретенных навыков они передают следующим поколениям, причем не через гены, а через обучение, которое становится важной составляющей взросления. В обычной жизни, например у высших животных, «учителями» выступают члены семьи, сообщества или стаи. Поэтому выстраивание семейных и иерархических отношений в сообществах высших животных — необходимое условие обучения. Казалось бы, ИИ, который позволяет обучаться с миллионами «учителей», должен выигрывать у человека и тем более у животных. Однако это не так.

Четвертый, информационный, уровень — переходный от животного к человеку. Именно здесь интеллект должен договориться с другими субъектами о символах и языке. Можно сказать, что на этом уровне формируется список определений терминов и понятий (глоссарий). Но в отличие от существующих моделей ИИ, куда загружаются справочники и классификаторы, глоссарий AGI должен создаваться им в рамках общения с другими людьми. Какие-то из понятий для AGI не будут очень важными, и их можно было бы загрузить, но какие-то понятия, наоборот, будут опираться на собственный опыт, и у AGI будет собственное мнение на этот счет. Именно собственное, а не загруженное в память, понимание тех или иных событий, выраженное в символах или в языке, и является условием формирования субъектности. Сегодня модели GenAI хорошо имитируют оригинальное мышление, но в реальности мышления нет.

И, наконец, верхний уровень, уровень актуализации, ставит точку в создании модели сильного ИИ. Именно здесь реализуется функция работы со знанием — когда у AGI появляются некоторые компетенции, позволяющие ему участвовать в совместной с другими субъектами интеллектуальной деятельности. AGI должен понимать, какие компетенции у него есть, а каких нет и какие знания необходимы для использования его компетенций. Такое понимание автоматически появляется, если субъект встроен в социальные отношения и может сравнить себя с другими. Именно на этом уровне у AGI возникают такие понятия, как этика и мораль — социальные ограничения, которые осознанны как более эффективные для выживания социума в целом и приняты индивидуально каждым субъектом. Актуализация и работа со знанием позволяют субъекту реализовывать стратегическое мышление — предсказывать и планировать не на ближайшее время, а на время, сравнимое с временем жизни субъекта.

Философские основы и проблемы функционирования AGI

Предложенная архитектурная модель сильного ИИ — концептуальна и потребует при практическом исполнении конкретизации и уточнения как для уровней, так и для реализуемых на них функций. Однако у данной модели есть как прочная основа, так и проблемы, формулируемые на общефилософском уровне, которые либо останутся неизменными, либо предварительно должны быть решены. В частности, разбиение модели именно на три слоя (рис. 2) не случайно. Нижний слой отвечает за индивидуальные характеристики субъекта, средний — за социальные характеристики взаимоотношений с другими субъектами, а верхний слой — опять за индивидуальные характеристики, но связанные с осознанием социальной природы субъекта. Именно в таком осознании и формируется субъектность, когда AGI может и должен быть ответственен за свои действия.

У социальной природы человеческого интеллекта имеются как сторонники, так и противники. Однако можно привести технический аргумент в пользу использования именно социума для обучения AGI — успех генеративного ИИ обязан тому, что в цифровом виде в Сети сегодня накоплены огромные массивы информационного контента. Однако мышление человека реализуется не тогда, когда он записывает свои мысли или выражает эмоции в графике, а тогда, когда принимает решение, делает выбор. Но именно такого цифрового контента, по крайней мере в достаточных объемах, в цифровом виде нет, однако в большом количестве имеется в жизненном опыте каждого человека. Поэтому если мы пытаемся обучить AGI не правильному подбору фразы на заданный вопрос, а умению делать выбор и принимать решения, то должны AGI обучать на опыте людей, с которыми он общается, и на его собственном опыте.

Еще одна проблема, требующая решения на фундаментальном уровне, связана с субъектностью (осознанием себя особенным, индивидуальным) интеллекта. Но такое осознание, как это ни парадоксально, возможно только в том случае, если подобные субъекты имеются. Быть субъектом можно только среди других субъектов. Если мы создадим AGI (или, скорее, ASI), который будет общаться, как это сегодня делают большие лингвистические модели, с миллионами людей, он не будет похож на людей, а следовательно, не сможет обладать субъектностью. Иначе говоря, созданный таким образом AGI будет суперсервисом, который консультирует любого человека по всем проблемам, но не сможет сам принимать решения и обладать субъектностью. Если субъектность является важной характеристикой AGI, это значит, что мы должны делать искусственный интеллект максимально подобным человеку, чтобы встроить его в человеческий социум.

Антропоморфный подход к реализации AGI накладывает ограничения и на социальные коммуникации. Человек не может общаться (в режиме диалога) одновременно с большим числом собеседников. С одной стороны, коммуникации peer-to-peer кажутся ограничением, но, с другой стороны, они определяют алгоритм коллективной организации интеллекта, когда каждый субъект коммуницирует с небольшим числом окружающих его субъектов, но при этом поведение всего сообщества выглядит как целое. Аналогом такой коллективной деятельности в природе является косяк рыб, который, спасаясь от хищника, ведет себя как единый организм, принимающий различные формы. Сегодня «бирюзовые» компании (без жесткой иерархии, основанные на самоуправлении и взаимном доверии) используют подобную гибкую организацию работ [5], такой же алгоритм применяется и для создания коллективного суперинтеллекта (venturebeat.com/ai/the-promise-of-collective-superintelligence).

Еще одной философской проблемой алгоритмизации AGI является, как это ни странно, энтропия. Согласно второму закону термодинамики, в закрытых системах энтропия всегда возрастает. В случае открытых систем, к которым принадлежат и живые организмы, энтропия может уменьшаться, но лишь временно — все живые системы (и не только живые) имеют ограниченное время жизни. Природа нашла выход из этой ситуации в размножении и создании видов живых организмов. Организм создает себе подобных, и таким образом формируются виды из одинаковых организмов, которые живут намного дольше отдельных особей, противостоя росту энтропии. Что было бы, если организмы были бессмертны? Возникли бы их виды, было бы развитие? Трудно сказать. Антропоморфный подход к AGI требует, чтобы и искусственный интеллект, претендующий на субъектность, был смертен. Этому есть и еще одно подтверждение. Организация обучения с подкреплением требует, чтобы субъекты имели мотивацию в своих опытах. Такая мотивация должна основываться на ощущениях: больно — хорошо. То, что приносит боль, субъект должен избегать, и наоборот — субъект должен стремиться к получению хороших эмоций. В такой дихотомии всегда должны быть крайние точки, одна из которых — смерть, а другая — связанная с продолжением рода, с удовлетворением жизненно важных потребностей и т. п.

Надо ли делать AGI смертным или нет — вопрос, на который необходимо ответить прежде, чем создавать сильный ИИ.

***

Человечество действительно существенно приблизились к созданию сильного искусственного интеллекта — AGI. Однако, скорее всего, такое создание не будет связано с генеративным ИИ, эффективно имитирующим человеческую деятельность, но далеким от мышления и самоидентификации. Модель AGI должна иметь многоуровневую структуру, где на каждом уровне реализуются те или иные функции. В некоторой степени такая модель аналогична пирамиде потребностей Маслоу, которая также предполагает сначала насыщение физиологических потребностей человека и только затем — социальных и духовных. Сильный искусственный интеллект должен быть организован на основе социальных коммуникаций — интеллект человека коллективен по своей сути, а значит, и его искусственная модель должна поддерживать коллективную работу со знанием.

Несмотря на то, что технологии и понимание человека сегодня далеко продвинулись, остаются вопросы, на которые нет однозначного ответа. Должен ли AGI быть антропоморфным? Если нет, как он сможет обрести субъектность, будучи уникальным искусственным организмом? Придется ли сразу создавать целый вид субъектов AGI, которые будут общаться между собой? Должен ли AGI общаться, подобно человеку, только с небольшим числом интеллектуальных субъектов или, как GenAI, с миллионами пользователей? Не превратится ли он тогда просто в глобальный сервис, как это сегодня фактически происходит с большими лингвистическими моделями? И, наконец, надо ли делать AGI смертным, чтобы в его спектре мотиваций были все оттенки, в том числе и самые крайние? Не приведет ли бессмертие AGI к тому, что, осознав свою неуязвимость, он потеряет мотивацию к развитию?

Сегодня вопросов в области создания сильного ИИ больше, чем ответов и не отвечать на них, не создавать сильный ИИ — значит не чувствовать ритм и требования новой эпохи, которая многое изменит.

Литература

1. E. Bender, T. Gebru et al, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, FAccT'Virtual Event, Canada, 2021.

2. J. Zachman, A framework for information systems architecture. IBM Systems Journal, vol. 26, no. 3, pp. 276–292, 1987.

3. Boris B. Slavin. An architectural approach to modeling artificial general intelligence // Heliyon. — March 2023 vol. 9, no. 3. — P. e14443.URL: https://www.sciencedirect.com/science/article/pii/S240584402301650X (дата обращения: 21.03.2024).

4. S. Sloman, R. Patterson, A. Barbey. Cognitive Neuroscience Meets the Community of Knowledge // Frontiers in Systems Neuroscience. Т. 15, № 675127, pp. 1–13, October 2021.

5. Б. Б. Славин. Современные формы гибких систем управления организациями в России // Управленческие науки.— 2022. — Т. 12, № 4. — СС. 48–62. URL: https://managementscience.fa.ru/jour/article/view/407/331 (дата обращения: 21.03.2024).

Борис Славин (bbslavin@fa.ru) — профессор, Финансовый университет при Правительстве РФ (Москва).

DOI: 10.51793/OS.2024.25.57.003