Августовский номер журнала Computer (IEEE Computer Society, V. 38, No. 8, August 2005) целиком посвящен одной теме — «Совершенные технологии устройств отображения» (Ultimate Display Technologies).

Вводная заметка приглашенного редактора Оливера Бимбера (Oliver Bimber) из Университета Баухаус (Веймар, Германия) называется «Совершенный дисплей — каким он будет?» (The Ultimate Display-What Will It Be?). Изобретение телевидения оказано серьезное влияние на облик XX века. Конструктивные характеристики бытовых устройств отображения эволюционируют от небольших кубов к широкоформатным панелям. Максимальные размеры плоских панелей ограничиваются технологическими факторами. При достижении пределов размера таких устройств развитие может быть продолжено за счет использования технологии видео?проекцирования. Кроме того, большинство людей постоянно имеет при себе небольшие дисплеи, как часть мобильных телефонов, карманных компьютеров, навигационных систем и т.д. Что нас ждет в будущем? Отомрут ли пиксели и придут ли им на замену воксели и хогели (hogel — HOloGraphic ELement)? Будет ли активная трехмерная графика вытеснять пассивную двумерную? В статьях августовского номера Computer представлены тенденции развития технологий устройств отображения, методов построения проекционных устройств и новых схем визуализации.

Статью «Автостереоскопические трехмерные дисплеи» (Autostereoscopic 3D Displays) представил Нейл Додгсон (Neil Dodgson) из Кембриджского университета. Большая часть перцепционных признаков, используемых человеком для визуализации трехмерных структур реального мира, доступна в виде двумерных проекций, поэтому мы можем осмысленно воспринимать плоские фотографии и изображения на экранах. Такие признаки включают окклюзию (один объект частично накрывает другой), перспективу (точка зрения), знакомые размеры (нам известен размер многих объектов реального мира) и атмосферную дымку (удаленные объекты выглядят более размытыми). Однако, в двумерной среде отсутствуют четыре признака: стереоскопический параллакс (способность видеть каждым глазом разные изображения), параллакс движения (возможность видеть разные образы при повороте головы), аккомодация (фокусировка зрачка на объекте), конвергенция (схождение глаз на объекте). Все стереоскопические устройства отображения должны, по меньшей мере, обеспечивать стереоскопический параллакс. Автостереоскопические устройства отображения представляют трехмерное изображение без применения каких-либо специальных приспособлений. Традиционные 3D-устройства требуют представляют на одном экране два изображения и требуют для просмотра специальные очки, которые выбирают изображение, видимое каждым глазом. Всех такие устройства имеется ограниченное коммерческое применение, например, если зритель смотрит на экран сквозь соответствующим образом раскрашенные фильтры, то длительное использование таких очков вызывает головную боль. В современных стереоскопических кинотеатрах (IMAX) нормой являются поляризованные очки, но их оборудование и требуемая для правильного использования квалификация персонала весьма дорога. Альтернативой очкам являются шлемы с двумя небольшими дисплеями, по одному на каждый глаз. Сегодняшняя технология позволяет делать такие устройства достаточно легкими. У этих устройств имеется ряд областей применения, но их распространение ограничивает потребность в надевании шлема и соответствующая изоляция от внешнего мира.

Путем применения дополнительной аппаратуры для отслеживания движений головы можно достичь параллакса движения для одного зрителя. В мультивидовых (multiview) автостереоскопических устройствах, отслеживающих движение головы, соединяются эффекты стереоскопического параллакса и параллакса движения, что обеспечивает восприятие трехмерного изображения без очков. В наилучших реализациях достигается голографическое качество. В таких устройствах обозреваемая область делится на конечное число горизонтальных слотов. В каждом слоте видимым является только одно изображение, или вид. Каждый глаз зрителя видит разные изображения, которые меняются, когда зритель двигает голову. Таким образом, небольшое число видов может обеспечить как стереоскопический параллакс, так и параллакс движения. Если в процессе генерации изображений учитывается положение головы, устройство может обеспечивать эффект параллакса движения. Иначе обеспечивается лишь стереоскопический параллакс. В статье обсуждаются имеющиеся технические подходы к организации каждой разновидности автостереоскопических устройств.

Следующая статья, «Объемные трехмерные дисплеи и инфраструктура приложений» (Volumetric 3D Displays and Application Infrastructure), написана Греггом Фаваролой (Gregg Favalora) из компании Actuality Systems. Объемные устройства изображения производят объемные трехмерные изображения. Каждый объемный элемент трехмерной сцены, воксель, излучает видимый свет из своей области. В книге создателей объемного дисплея на электронно-лучевых трубках Барри Бланделла и Адама Шварца (B. Blundell, A. Schwarz, Volumetric Three-Dimensional Display Systems, John Wiley & Sons, 2000) говорится: «Объемный дисплей позволяет генерировать, поглощать и рассеивать видимое излучение из множества локализованных и заданных областей физического объема». На основе терминологии предыдущих исследований автор статьи предлагает следующую таксономию объемных дисплеев.

  • Заметаемый объем. Еще в 1912 году было выдвинуто предположение, что объемное изображение может быть получено путем отражения или пропускания света через поворачивающуюся или колеблющуюся внутри желаемого объема поверхность — обычно плоскость или спираль. Когда проекционная поверхность заметает объем, она отражает или испускает свет в соответствии со своим положением. Если объем регенерируется достаточно часто, например, 20 раз в секунду, то наблюдатель будет воспринимать трехмерное изображение.
  • Статический объем. Объемные дисплеи также могут генерировать трехмерные образы путем способности объема испускать свет, в котором большая часть свойств остается статической. Например, очки, покрытые редкоземельными ионами, могут испускать видимые световые точки при возбуждении двойными пересекающимися лучами инфракрасного лазера.
  • Голограммы и голографические стереограммы. Сегодня еще нет единства в вопросе того, создают ли голограммы объемные изображения. Имеются коммерческие разработки, позволяющие, например, создавать голограммы для систем изучения эргономических свойств автомобилей, генерирующих полноцветные, полностью параллаксные изображения, по существу, воспринимаемые пользователями как объемные.
  • Мультивидовые дисплеи. Новый класс трехмерных дисплеев физически воссоздает объемные световые поля путем проецирования до 200 видов. Полученные изображения удовлетворяют условию супер-мультивидовости, когда глаз наблюдателя автоматически фокусируется на каждом вокселе, как если бы он проецировался из данной области пространства. Если поместить в середину объемного изображения диффузор, например, бизнес-карту, то она будет выглядеть врезанной в объект.

Статья «Генерируемая компьютером голография как общая технология отображения» (Computer-Generated Holography as a Generic Display Technology) представлена Крисом Слингером (Chris Slinger), Колином Камероном (Colin Cameron) и Морисом Стэнли (Maurice Stanley) из компании QinetiQ. Изобретенная в 1947 году голография (holos — «единое целое») представляет собой метод трехмерного отображения, в котором интерференция и дифракция используются для фиксации и реконструкции оптических волновых фронтов. Уникальная возможность голографии точно генерировать как амплитуду, так и фазу световых волн позволяет применять ее в приложениях, не ограниченных средствами манипулирования светом систем, которые основаны на линзах или зеркалах. Голография, генерируемая компьютером (Computer-Generated Holography, CGH), — это развивающаяся технология, ставшая возможной благодаря росту мощности современных компьютеров. Вместо шага интерференционной записи традиционного формирования голограмм компьютер вычисляет голографическую интерференционную картину, которая затем используется для установки оптических свойств пространственного генератора света — жидкокристаллического микродисплея (Liquid Crystal Microdisplay, SLM). Затем SLM, подобно стандартной голограмме, рассеивает считываемую световую волну для получения желаемого волнового фронта. По сравнению с традиционными подходами, применяемыми в голографии, подход CGH не нуждается в специальных материалах для записи голограмм и может синтезировать оптические волновые фронты без фиксации их физического проявления — например, можно генерировать трехмерные изображения несуществующих объектов. Обеспечивается также управление волновым фронтом за счет возможностей простого хранения, манипулирования, передачи и репликации голографических данных. Хотя уже сегодня можно построить системы отображения на основе подхода CGH, для многих приложений они еще слишком дороги.

Название следующей статьи — «Совершенный дисплей: откуда возьмутся все эти пиксели?» (The Ultimate Display: Where Will All the Pixels Come From?). Авторы статьи — Бенджамин Ватсон (Benjamin Watson) из Северозападного университета и Дэвид Любке (David Luebke) из Университета штата Вирджиния. Представьте себе, что стены вашей квартиры являются дисплеями, показывающими более мелкие детали, чем способны различить ваши глаза, и что они могут изменять эти детали быстрее, чем вы можете заметить какое-либо мерцание или задержку. Отображаемый на такую стену текст выглядит так, как на печатной странице. Участвуя в видеоконференции, вы можете видеть все эмоции на лице вашего коллеги, различать травинку на ноге бегущего футболиста или волосок на лице любимого артиста. Для настенного дисплея, поддерживающего остроту человеческого зрения при просмотре крупных планов (в среднем глаз здорового человека может различать детали размером в одну минуту угла зрения; для сравнения, размер человеческого пальца на расстоянии вытянутой руки составляет 60 минут угла зрения), требуется разрешающая способность примерно в 670 мегапикселей при плотности 190 dpi. Почему же тогда в принтерах поддерживается намного более высокое разрешение? Одна из причин — повышенная острота зрения человеческого глаза, делающая глаз чувствительным к некоторым деталям размером в несколько секунд угла зрения. Чтобы ее поддерживать, в настенном дисплее потребовалась бы разрешающая способность в 165 гигапикселей при 3000 dpi, что в 10 000 с лишним раз больше числа пикселей, обеспечиваемого в наиболее крупных современных дисплеях. Кроме исключительно высокого пространственного разрешения дисплей должен также иметь частоту регенерации примерно в четыре раза выше, чем современные дисплеи. Между тем, уже сегодня можно создать дисплеи с разрешением, как у принтера (7,2 гигапикселей, 600 dpi) с частотой 240 Гц. В дисплее T221 компании IBM поддерживается разрешение в 200 dpi, а в устройствах Librie (электронных книгах) используется технология e-Ink со 170 dpi. Учитывая растущую популярность и непрерывное удешевление наборных дисплеев (tiled display), легко представить массив из 50 дисплеев уровня T221, используемый в качестве основы поддерживающего остроту зрения 455-мегапиксельного дисплея с 200 dpi и частотой регенерации в 48 Гц. Реальной проблемой таких дисплеев является пропускная способность. Пропускная способность в 2 терапикселя в секунду в 10 000 выше, чем у современных графических систем. Затратив примерно 20 тыс. долл. на покупку 50 графических процессоров для поддержки своего настенного дисплея с разрешением уровня принтера, можно сократить требования к пропускной способности до 24 гигапикселей в секунду, что всего в 200 раз превышает типичные сегодняшние скорости. Но параллельного воспроизведения оказывается недостаточно. В качестве решения авторы предлагают адаптивную безкадровую обработку, отвергающую традиционную концепцию анимации как последовательности кадров. Авторы также отказываются от представления образов как согласованных во времени решеток образцов или пикселей. Вместо этого образцы генерируются по мере необходимости. Реализованный прототип системы показал, что применение этого подхода может снизить требования к пропускной способности на один-два порядка.

Последняя статья подборки называется «Дым, зеркала и технологичный в производстве дисплей» (Smoke, Mirrors, and Manufacturable Displays). Статью написала Мари-Луи Жепсен (Mary Lou Jepsen) из компании JOE. За последние два десятилетия исследователи в области электроники успешно продвинули в массовое производство свои лабораторные новинки: интегральные схемы, компьютеры, программное обеспечение и т.д., однако закон Мура оказался неприменимым к индустрии дисплеев. Исследователи в области высококачественных устройств отображения оказались чрезвычайно нерезультативными в переносе своих замечательных новых идей в мир потребителей. Конечно, они добились некоторого прогресса. Наиболее успешными новшествами в области дисплеев являются наблюдаемый сегодня глобальный переход от дисплеев на электронно-лучевых трубках к жидкокристаллическим дисплеям и к видео?проекционным системам. В большинстве разработок, направленных на достижение «совершенной» технологии устройств отображения, усилия сосредотачиваются на начальной демонстрации результата без заботы о производственной технологичности прототипа. Усилия по коммерческому внедрению продукта обычно наталкиваются на огромные препятствия и захлебываются. Обычно спустя несколько лет та же работа возобновляется другой группой и также обычно не слишком успешно. Часто начальные прототипы демонстрируют действительно новые и впечатляющие технологии. Воодушевляют результаты, полученные в областях широкоформатных дисплеев, интерактивных дисплеев, трехмерных и голографических дисплеев, дисплеев с тактильной обратной связью, проекционных устройств без экрана и т.д. Для характеристики возможности производства наиболее современных прототипов дисплеев, которые производят интересные эффекты, но никогда не будут реально использоваться, применяется термин «дым и зеркала». Во многих случаях эти дисплеи остаются лишь прототипами, которым не суждено когда-либо стать продуктами. Трудным компонентом технологичного в производстве решения является стоимость — приходится платить за пропускную способность, видеокодирование, проектирование и разработку схем, надежность и качество изображения.

Когда следует избегать повтороной работы

Тема сентябрьского номера журнала Computer за 2005 г. (IEEE Computer Society, V. 38, No 9, Сентябрь, 2005) — разработка программного обеспечения («Software Development»). Этой теме посвящены три из пяти больших статей.

Первая статья озаглавлена «Итеративная повторная работа: что хорошо, что плохо, что ужасно» (Iterative Rework: The Good, the Bad, and the Ugly). Ее авторы — Ричард Фейрли (Richard Fairley) и Мэри Джейн Уилшир (Mary Jane Willshire). Многолетний опыт показывает преимущества итерационной разработки, когда на каждом шаге используется программное обеспечение, разработанное на предыдущей итерации, и к нему добавляются возможности, продвигающие его по направлению к следующей версии. Когда разработчики создают следующую версию и проверяют ее правильность, они переделывают предыдущую версию с целью совершенствования ее возможностей и устранения дефектов, обнаруживаемых при интеграции старой и новой версий. В зависимости от целей проекта может существовать много форм итерационной разработки: итерационное прототипирование (iterative prototyping), способствующее развитию пользовательских интерфейсов; скорая разработка(agile development), которая дает возможность вовлечь заказчика в процесс; инкрементное построение (incremental build), позволяющее разработчикам производить промежуточные варианты развивающегося продукта; спиральная модель (spiral model), которая может помочь группе разработчиков оценивать и смягчать риски при развитии продукта. На каждой итерации производится определенный объем повторной работы для совершенствования и налаживания существующих возможностей, однако чрезмерный объем повторной работы может быть признаком проблем в требованиях к продукту, в квалификации и мотивации разработчиков, в используемых процессах или технологии разработки (а может быть, и сразу во всех этих аспектах разработки). Чрезвычайно высокий объем повторной работы приводит к неприемлемым ситуациям, а это уже ужасно. С другой стороны, слишком незначительный объем повторной работы может свидетельствовать о недостаточном анализе и тестировании или о недостаточной продуманности возможностей продукта, которые требуется поддерживать в следующей версии. Как можно накапливать данные о повторной работе без излишнего вторжения в созидательную работу разработчиков? Какого процента повторной работы удавалось избежать в прошлом, и с какими характеристиками продуктов это было связано? Как лучше предугадать возможности, которые потребуются в следующей версии, чтобы сократить объем повторной работы? Какие и когда делаются ошибки? Можно ли быстрее их осознавать? Как можно было бы их предотвратить? Какой объем работ требуется для исправления ошибок? Как можно усовершенствовать процессы разработки для сокращения или устранения риска совершения этих ошибок?

Некоторые вопросы о возможности избежать повторной работы могут относиться к специфическим проектам и организациям, но большая часть касается всех типов организаций и программных продуктов. Если потребность в повторной работе появляется в результате случайных обстоятельств или из-за неумения воспользоваться известными практическими приемами, то понимание и устранение исходных причин является ключом к повышению эффективности и снижению стоимости процесса разработки.

Следующая статья, написанная Дэвидом Янценом (David Janzen) и Хуссейном Саедяном (Hossein Saiedian), называется «Управляемая тестами разработка: понятия, таксономия и будущие направления» (Test-Driven Development: Concepts, Taxonomy, and Future Direction). Стратегия разработки, управляемой тестами (test-driven development, TDD), требует автоматизированного написания тестов еще до начала разработки функционального кода в течение нескольких коротких и быстрых итераций. TDD применяется разработчиками с различных формах десятки лет, однако эта стратегия продолжает привлекать все больше внимания как один из ключевых компонентов экстремального программирования (eXtreme Programming, XP). Первоначально стратегия TDD не ассоциировалась с XP, но позже ее стали описывать как неотъемлемый компонент XP, необходимый для анализа, проектирования и тестирования, позволяющий также производить разработку на основе рефакторинга, совместного владения, непрерывной интеграции и отваги программистов. Наряду с применением TDD для программирования и рефакторинга в XP, стратегия привлекает и существенное самостоятельное внимание. Разработчики создают специальные инструментальные средства для поддержки TDD в различных языковых средах. Исследователи начали изучать влияние TDD на повышение качества академических и производственных программных сред. Преподаватели обдумывают пути интеграции TDD в педагогику компьютерной науки и технологии программирования. Авторы, прежде всего, уточняют смысл термина TDD, выделяя три существенных аспекта: тестирование, управление разработкой и сама разработка. Далее анализируются исторический и современный контексты применимости TDD. В завершение рассматривается современное состояние TDD с точки зрения индустрии и науки. Требуются дополнительные исследования в области применимости TDD для повышения качества программного обеспечения. Нужно найти место тематике TDD в программах учебных курсов, что даст студентам возможность приступать к практической работе будучи более дисциплинированными и обладающими более высокой квалификацией в области проектирования и тестирования программного обеспечения, что позволит производить надежные, повторно используемые и качественные программные продукты.

Авторами третьей статьи тематической подборки являются Томас Месерви (Thomas Meservy) и Курт Фенстермахер (Kurt Fenstermacher). Название статьи — «Преобразовательная разработка программного обеспечения: дорожная карта MDA» (Transforming Software Development: An MDA Road Map). Комедийный актер Стивен Райт однажды пошутил: «У меня есть карта Соединенных Штатов... реального размера. Я провел прошлое лето, складывая эту карту». Карта — это модель, представляющая географическую область в удобной для использования форме с сохранением только уместных подробностей. Подобно тому, как картографы создают различные виды карт с разной детализацией для моделирования различных географических аспектов, разработчики программного обеспечения традиционно концентрируются на единственной модели: код, который является эквивалентом фотоснимка, отображающего реальный размер. Модели широко используются для гибкого представления сложных систем. Модели могут рассматриваться на многих уровнях абстракции, и взаимно дополняющие виды моделей могут комбинироваться для обеспечения более понятного и точного представления систем, чем может обеспечить единственная модель. Многие специалисты в области разработки программного обеспечения в течение долгого времени пропагандировали использование моделей для понимания проблем, на решение которых направлена разработка программной системы, в то время как в группах разработчиков модели обычно используются только на ранних стадиях проектов. Часто при начале конструирования системы разработчики забывают о модели и не обновляют ее при изменении своего понимания проекта. Многие разработчики согласятся, что моделирование должно играть свою роль в каждом проекте. Однако отсутствует полное согласие относительно того, в чем должна состоять эта роль, как следует разработчикам интегрировать моделирование с другими процессами разработки, и кто должен участвовать в процессе моделирования. В 2001 году международный консорциум Object Management Group выступил с инициативой модельно-управляемой архитектуры (model driven architecture, MDA — www.omg.org/mda) c претенциозной целью сдвига фокуса разработки программного обеспечения с написания кода на моделирование. Суть подхода MDA можно кратко охарактеризовать следующим образом. После формирования набора требований разработчики создают системную модель, удовлетворяющую этим требованиям. В исходной модели фиксируются эти требования, но отсутствует привязка к какой-либо конкретной технологической платформе. С использованием набора правил среда модельно-управляемой разработки затем эту платформно-независимую модель (platform-independent model, PIM) в модель конкретной платформы (platform-specific model, PSM). Термин «платформа» в спецификациях MDA используется достаточно свободно, означая не только конкретную операционную систему, но и языковую платформу, например, Java или Python, и даже распространенные практические приемы разработки, такие как создание методов доступа к атрибутам класса. С идейной точки зрения, эти преобразования понижают уровень абстракции путем уточнения некоторых аспектов PIM. Поскольку уровень абстракции PSM все еще слишком высок для осуществления компиляции на заданный язык программирования, в среде MDA требуется второй набор преобразований для отображения конструкций PSM в программный код. При использовании MDA код программ не пишется напрямую программистами, а генерируется средой поддержки MDA из моделей, создаваемых разработчиками. При изменении проектных решений разработчики обновляют модель, а среда синхронизует код с измененной моделью. Модель не отбрасывается в начале кодирования, а находится в центре процесса разработки. Перед MDA стоит важная проблема доведения моделей до конечной реализации, а на это не способны ни имеющиеся сегодня технологии, ни опытные программисты. Тем не менее позволяя квалифицированным разработчикам преобразовывать наиболее потребные элементы моделей, MDA может помочь группам разработчиков программного обеспечения сконцентрировать свои усилия на моделировании и генерации большей части требуемого формального кода, позволяя квалифицированным разработчикам преобразовывать наиболее употребляемые элементы моделей.

Вне тематической подборки представлены две статьи. Майкл Зида (Michael Zyda) написал статью «От виртуальной имитации к виртуальной реальности; от виртуальной реальности к играм» (From Visual Simulation to Virtual Reality to Games). В течение двух последних десятилетий разработки в области виртуальной реальности основывались на синтезе результатов, ранее полученных в областях интерактивной трехмерной графики, пользовательских интерфейсов и визуальной имитации. Это позволило разработчикам создать более открытую технологию, чем это было возможно в сообществе визуальной имитации, увеличить число людей, работающих с трехмерной графикой, а также развить науку, технологию и язык, существенно выходящие за пределы области визуальной имитации. После публикации в 1997 подготовленного National Research Council отчета Modeling and Simulation-Linking Entertainment and Defense (http://www.nap.edu/books/0309058422/html/index.html) сообщество видеоигр продвинулось в область, представлявшую до этого интерес, главным образом, для сообщества виртуальной реальности. Исследования в области игр оказывают влияние не только на индустрию развлечений, но и на правительственные и коммерческие организации, извлекающие пользу из возможностей имитации и обучения, обеспечиваемых серьезными играми.

Еще одна большая статья сентябрьского номера, «Распределенное управление доступом в мультимедийных датацентрах Internet» (Distributed Access Management in Multimedia IDCs), написана Рафаи Бхатти (Rafae Bhatti), Базитом Шафиком (Basit Shafiq), Мохамедом Шахабом (Mohamed Shehab) и Арифом Гафуром (Arif Ghafoor). Компании могут использовать основанную на Web модель электронного предприятия не только для предоставления своих услуг в оперативном режиме разнообразным и распределенным заказчикам, но и для упрощения администрирования соответствующих сервисов. В базовой архитектуре датацентра Internet обеспечиваются хранение и доставка огромному числу заказчиков больших объемов мультимедийных данных из единого виртуального местоположения. Обычно инфраструктурой центра, хранящей данные, вычислительной и сетевой, владеют сторонние компании, взимающие плату с поставщиков контента за размещение сервисов. Хотя использование центра дает возможность предприятиям обеспечивать услуги клиентам на основе инфраструктуры сторонней компании, динамическая природа этой среды заставляет серьезно относиться к политике управления доступом в разнородных доменах предприятий. Применение датацентров Internet для обслуживания мультимедийных данных усложняет проблемы, связанные с обеспечением сложных механизмов контроля доступа, которые обеспечивают безопасное распространение мультимедийного контента в Web. Поскольку, скорее всего, разнообразное использование мультимедийных данных будет возрастать, наличие этих проблем может отрицательно сказаться на применении датацентров Internet для обеспечения соответствующих услуг. В качестве практического примера рассматривается инициатива цифрового здравоохранения, выдвинутая несколькими американскими штатами. Использование датацентров Internet для архивации, управления и распространения электронных историй болезней пациентов — от оцифрованных рентгеновских снимков до видеозаписей диагностических обследований, производимых ведущими практикующими врачами — может сделать возможным обеспечение системы здравоохранения в масштабах штата. К примеру, в ближайшем будущем в штате Индиана планируется образовать цифровую инфраструктуру для обеспечения медицинской помощи, включая, среди прочего, использование развитых средств биовизуализации для удаленного мониторинга и диагностирования пациентов. При обеспечении доступа к этому виду мультимедийной информации возникают определенные затруднения, касающиеся безопасности и конфиденциальности. Этот пример демонстрирует потребность в обеспечении безопасности мультимедийных сервисов, основанных на датацентрах Internet, без отрицательного влияния на функциональные цели предприятий. Для решения этой проблемы авторы предлагают архитектуру программного обеспечения, абстрагируемую от специфики приложений и обеспечивающую основу построения среды, которая опирается на понятие описания класса служб в качестве источника формирования политики контроля доступа.

Приближается конец кода; пора задуматься насчет возобновления своего членства в IEEE Computer Society. Всю необходимую информацию можно найти на сайте www.computer.org или непосредственно у меня.

К вашим услугам, Сергей Кузнецов (kuzloc@ispras.ru).