Появление многих «модных« ИТ-концепций представляет собой не что иное, как реакцию ИТ-индустрии на низкую экономическую эффективность информационных технологий...

Появление многих «модных« ИТ-концепций представляет собой не что иное, как реакцию ИТ-индустрии на низкую экономическую эффективность информационных технологий

В интервью, опубликованном в начале года в «Нью-ЙоркТаймс», Билл Гейтс высказал искреннее сожаление по поводу дел в ИТ-отрасли. Больше всего его огорчило снижение внимания к ИТ со стороны общественности.

За примерами далеко ходить не надо. На последнем ежегодном экономическом форуме в Давосе отношение к информационным технологиям проявилось в полной мере: им здесь не было посвящено ни одного пленарного совещания. Глава Microsoft считает подобное отношение не соответствующим влиянию ИТ на мировую экономическую систему. Тем не менее мировые лидеры, собирающиеся на «тусовку», вопреки мнению Гейтса, с каждым годом проявляют все меньший интерес к ИТ. Показательно, что в том же Давосе в 2000 году было 17 тематических сессий, связанных с этой темой, в 2001-м — 22, в 2002-м — 8 и далее по убывающей. Скорее всего, неладно что-то в самом информационном королевстве, а не в умах экономической элиты, и первый принц этим обстоятельством явно обеспокоен. Возникает естественный вопрос: в чем причины?

Одна из причин дискредитации ИТ лежит на поверхности: кризис доткомов и провал идей электронной коммерции, а также последовавшие за этим прочие явления — тот самый нарыв, который прорвался в 2000 году. Кстати, никто не проанализировал связь разочарования в ИТ с «проблемой Y2K», которая тоже в немалой степени поспособствовала усугублению скепсиса в отношении ИТ (искусственный взрыв спроса оказался пирровой победой). Но то и другое можно рассматривать как неизбежные детские болезни роста, которые вполне можно пережить.

К сожалению, эти болезни не единственные. Существует и хроническая болезнь, в основе которой — фундаментальная причина. Стоит задуматься, а так ли нужны предприятиям для получения прибыли информационные технологии в их нынешнем объеме и, главное, в их нынешнем состоянии? Многочисленные исследования, проведенные американским журналом CIO, показывают, что только в трети компаний (заметим, наиболее продвинутых) руководители информационных служб (CIO) находятся в подчинении и докладывают о результатах своей деятельности генеральным директорам (CEO) и финансовым директорам (CFO), в основном ими руководят директора по операционной деятельности (COO). Из этого следует, что структурные подразделения, возглавляемые CIO, не оказывают достаточного влияния на бизнес компаний, они все еще остаются на уровне обеспечивающей инфраструктуры наравне с другими инфраструктурными компонентами, такими как электричество, кондиционирование и т. д.

Далеко не случайно пару лет назад пресловутый Николас Карр со своей статьей «Не в ИТ дело» (IT Doesn?t Matter) произвел такой переполох, что фактически «поставил на уши» всю индустрию. Что дало повод главе Sun Microsystems заискивающе заглядывать в глаза заурядному преподавателю университета? Что, собственно, крамольного сказал Карр? Попросту говоря, он выступил в той же роли, что и мальчик из сказки Ганса Христиана Андерсена, — он назвал вещи своими именами («А король-то голый!»). Да, действительно, пока преуспевание компаний не находится в прямой зависимости от ИТ. В конечном счете, не в них дело, но кто же этого не знает? До Карра о том же самом писали многие, причем гораздо более убедительно, чем он. Особое внимание к Карру вызвано тем, что он удачно выбрал время и место, нанес удар в болевую точку, и этот удар оказался замечен. В то время когда объемы продаж возрастали, бессознательно или скорее по умыслу капитаны отрасли не хотели замечать аргументы критиков, утверждавших, что они предлагают потребителям не совсем тот продукт, который тем нужен.

Парадокс продуктивности

Напомню, что первым сомнение в экономической эффективности использования компьютеров высказал Уильям Боуэн в статье «Недостаточная экономическая эффективность компьютеров в офисе, опубликованной в 1986 году в журнале Fortune. Затем голоса скептиков стали звучать громче. Особое внимание привлекли работы Гэри Ловмана и Стивена Роча, именно в них впервые появился специальный термин «парадокс продуктивности».

Позже он был образно сформулирован лауреатом Нобелевской премии профессором Массачусетского технологического института Робертом Солоу: «Мы можем увидеть компьютеры где угодно, но не в статистических отчетах о продуктивности их использования».

В течение примерно десяти лет о парадоксе продуктивности в основном говорили ученые-экономисты. Нельзя сказать, что о нем писали мало. Публикации проявлялись в специальных изданиях, циркулировали в узком кругу профессионалов-экономистов и не вызывали заметной реакции среди широкой компьютерной общественности. Примерно с 1997 года вопросы экономической эффективности информационных систем, долгое время остававшиеся вне поля зрения основной массы производителей и пользователей, начали обретать все большую актуальность.

Для того чтобы понять проблему низкой эффективности, рекомендуется ознакомиться с работами Пола Страссмана (http://www.strassmann.com). В отрасли ИТ он человек далеко не случайный. Страссман был назван первым в почетном списке руководителей информационных служб (CIO) за последние десять лет. Список был опубликован журналом CIO, он включает всего 12 имен, избранных из 150 номинантов. Страссман — автор четырех книг, а также нескольких десятков статей в самых престижных изданиях.

Настоящей сенсацией стала вторая его книга — выпущенная в 1990 году «Ценность компьютеров для бизнеса» (Business Value of Computers); она была расценена компьютерной прессой как «плевок в храме». Страссман задел за живое: с цифрами и фактами в руках он доказал, что среди принятых показателей продуктивности нет таких, которые бы наглядно свидетельствовали о прибыльности использования ИТ. Еще работая в Xerox, Страссман, действуя по собственной методике, начал собирать данные об эффективности ИТ, а в книге «Ценность компьютеров для бизнеса» подвел некоторый промежуточный итог, сравнив затраты более 200 компаний на внедрение ИТ с уровнем доходности этих компаний. Вывод из сделанного анализа стал неожиданностью, своего рода сенсацией: между этими двумя величинами не существует статистически подтверждаемой зависимости.

Ключевым, опорным моментом для своих рассуждений Страссман выбрал ставшую знаменитой диаграмму. В 1990 году она была построена на основе данных примерно по 250 компаниям. За шесть лет существования диаграмма Страссмана развивалась, к ней добавлялись новые данные. Здесь приведена версия из статьи «Ценность компьютеров, информации и знаний» (The Value Of Computers, Information and Knowledge), опубликованной в 1996 году, где уже собраны данные по 468 американским, европейским и канадским компаниям. В дальнейшем точек на диаграмме становилось больше, но содержательно она не менялась.

По оси ординат диаграммы демонстрируется показатель эффективности акционированного капитала (Return of Equity, ROE), по оси абсцисс — затраты на информационные технологии в расчете на одного сотрудника (следует обратить внимание на то, что для инвестиций в ИТ выбрана логарифмическая шкала).

Судя по диаграмме, ни о какой корреляции между эффективностью акционированного капитала и затратами на ИТ говорить не приходится. Так что же делать? Как найти способ разрешения создавшейся ситуации?

У теоретиков нет ответа, к тому же вся история компьютинга отчетливо показала, что иного подхода к поиску выхода, чем хорошо знакомый инженерам метод проб и ошибок, не существует. В отличие от естественных наук, основным инструментом которых является анализ, компьютерным наукам сначала приходится дожидаться полученных эмпирическим путем результатов, а потом заниматься их изучением. В компьютинге анализу предшествует синтез, причем далеко не все синтезированное может быть использовано в последующем. Это обстоятельство весьма прискорбно: случается, что труды и знания, нередко накапливаемые годами упорной работы, оказываются никому не нужными, а прогрессом очень часто движут не академически образованные люди, светочи просвещения, а талантливые прагматики.

Пена и воды новой волны

Новая волна развития ИТ, вызванная отрезвлением взглядов корпоративных заказчиков, не желающих слепо следовать указаниям вендоров, возникла после кризиса доткомов. После короткой передышки в 2003 году все ведущие вендоры (HP, IBM, Sun), а за ними аналитики (Gartner, Forrester) анонсировали ряд новаторских решений и концепций: Autonomic Computing, Adaptive Enterprise, Organic IT, Utility Computing, Enterprise Grid и др. Эта волна представляет собой не что иное, как реакцию на низкую экономическую эффективность ИТ, на тот самый парадокс продуктивности. Стоило бы так об этом и сказать, но правила маркетинга и корпоративная этика не позволяют называть вещи своими именами (в противном случае многомиллиардным корпорациям пришлось бы признать свои глобальные ошибки и заблуждения).

О новой волне заговорили настолько активно, что поначалу вполне могло создаться впечатление, будто и в самом деле появляется нечто реальное, почти физически существующее. Спустя два года активность обсуждения темы заметно снизилась. Когда дым рассеялся, стало очевидно, что, несмотря на непохожесть названий, все толковали, по сути, об одном и том же — о создании эффективной вычислительной среды, обеспечивающей доступ к общим коммунальным ИТ-услугам (отсюда Utility), способной адаптироваться к изменениям (Adaptive) и к самоуправлению (Autonomic) и т. д. Как именно будет выглядеть такая среда, пока говорить сложно, да и, честно сказать, рано.

Дабы не путаться, стоит привести все эти концепции и решения к единому названию, например «новая волна в компьютинге». С одной стороны, новая волна — это попытка отреагировать на неудовлетворенность потребителей предложением, а с другой — найти то, что, собственно, этому потребителю нужно. Новая волна — это также и борьба за будущий рынок, тот, который сложится через три-четыре года (некоторые аналитики прогнозируют, что с 2008 года начнется подъем спроса на аппаратное и программное обеспечение).

Новую волну можно рассматривать как закономерное явление, если согласиться со следующей картиной эволюции. Давным-давно, в эпоху компьютеров первого поколения, потребителю предлагалось чистое железо, потом оно стало обрастать программным обеспечением. Вместе со вторым поколением появились языки программирования и операционные системы, затем базы данных и разнообразное прикладное обеспечение. Позже стали говорить о том, что потребителю стоит предлагать не средства, а готовые решения, приложения. Когда приложений стало очень много, возникла потребность в их интеграции. Но как связать отдельные части в единое целое? Можно ли создать гармоничный механизм, если его отдельные органы были созданы без какого-либо предварительного согласования? К примеру, имеется набор деталей от самолетов, причем каждая из них очень хороша. Но можно ли собрать из нее летательный аппарат? Скорее всего, нет. Но если нельзя построить таким образом аэроплан, то сомнителен и путь к созданию эффективных систем управления предприятиями на основе интеграции приложений. Следовательно, нужно не латать кафтан, а шить новый.

Возможно, проповедники новых типов ИТ и альтернативных «компьютингов» совершают одну существенную ошибку. По вполне понятным причинам, они в основном говорят о нижнем уровне ИТ-инфраструктуры. Когда-то его называли аппаратным, сейчас этот уровень сам по себе является многослойным: он включает собственно «физику», операционные среды, программное обеспечение промежуточного слоя и т. д. Но сам по себе он не является достаточно оформленным коммерческим предложением для предприятий, способным поднять эффективность ИТ, сделать их действительно необходимым условием для существования бизнеса. В целом это выглядит как попытка заменить одно менее эффективное «железо «другим (разумеется, речь идет не только об аппаратуре).

Необходимо объединить нижний уровень с верхним, который сейчас тоже успешно развивается, то есть с уровнем управления бизнес-процессами (Business Process Management), причем вся эта конструкция должна работать в режиме реального времени (Real Time Enterprise).

Если присмотреться к этим трем составляющим, то не трудно заметить, насколько близко в совокупности они подводят к положению дел в технических системах управления, имевшему место 60 лет назад, когда родились кибернетические системы управления. Тогда тоже были сформированы технические возможности для создания систем управления, но не хватало системного взгляда на явления, который был предложен Норбертом Винером и развивался его многочисленными преемниками.

Резюмируя все вышесказанное, Autonomic Computing, Adaptive Enterprise, Organic IT, Utility Computing, Enterprise Grid и прочие аналогичные им новации - вещи нужные и правильные, но они решат проблему эффективности ИТ только при условии системного подхода к их развитию и внедрению.

Леонид Черняк - обозреватель журнала «Открытые системы», cherniak@osp.ru

Поделитесь материалом с коллегами и друзьями