Первую статью в подборке написал Дэвид Макартур. Она называется «Национальная научная электронная библиотека: формирование инфраструктуры образования» (National Science Digital Library: Shaping Education’s Cyberinfrastructure).

Летом 2007 года Национальная научная электронная библиотека США (National Science Digital Library, NSDL) обеспечивала доступ к 2,5 млн образовательных ресурсов, покрывающих области науки, технологии и инженерии на уровнях от подготовительного до выпускного. К этому времени портал www.nsdl.org был доступен в Internet уже около пяти лет, обеспечивая единую точку доступа к десяткам распределенных электронных коллекций и сервисов, многие из которых были созданы в рамках 200 небольших проектов, финансировавшихся программой NSDL. После достижения этого уровня зрелости программы Национальный научный фонд США заново осмысляет статут NSDL как исследовательской программы — она либо должна подвергнуться существенному изменению, либо понемногу пойти на убыль. С одной стороны, NSDL остается типичной программой фонда, выполняемой в рамках традиционного цикла предоставления грантов, с другой, эта программа не вполне обычна, поскольку целью ее проектов является не просто расширение базы знаний исследований и практики научного образования, но также и построение интегрированного ресурса, который будет существовать долгое время и приносить пользу преподавателям и обучающимся всех возрастов. Однако, поскольку фонд прежде всего — исследовательская организация, дальнейшее финансирование NSDL противоречило бы его политике не поддерживать рутинную научную и образовательную деятельность.

Между тем, фонд предоставляет гранты проектам, полагающимся на конференции и публикации (традиционные и электронные) как на средства взаимного влияния исследователей. Это замечательная цель, но именно NSDL дает фонду возможность упрочить связь между исследовательскими проектами. Библиотека способна обеспечить стандартизованную техническую инфраструктуру, поддерживающую гораздо более высокую степень межпроектных взаимодействий. В перспективе NSDL может стать платформой, позволяющей повысить продуктивность разработки образовательных ресурсов и усовершенствовать исследования в области образования, а также быть инструментом для создания новых научных знаний об образовании и обучении и управления этими знаниями.

Автор статьи «Wiki: от каждого сообразно его знаниям» (Wikis: ‘From Each According to His Knowledge’) — Дэниэл О’Лэри.

Первый инструментарий wiki — WikiWikiWeb был реализован Вардом Каннингэмом в 1994 году для содействия обмену идей между друзьями-программистами на сайте Варда. Программное обеспечение WikiWikiWeb было написано на языке Perl и основывалось на стеке HyperCard, разработанном Каннингэмом в конце 80-х годов. Сегодняшние wiki-приложения пишутся на различных языках, включая Java, Lisp, PHP, Smalltalk, Python и Ruby.

Wiki у гавайцев означает «быстрый», и в соответствии с названием технологии ее исходная цель состояла в том, чтобы предоставить пользователям возможность быстро размещать контент в Web. Вообще говоря, программное обеспечение wiki разрабатывается для ускорения и упрощения генерации контента, его совместного обогащения и распространения. Однако сегодня назначение wiki зависит от того, для кого и какого вида приложение разрабатывается.

Большая часть содержимого, поставляемого посредством wiki, — это текст, который может включать файлы изображений, видео и звука. Документы для Web создаются коллективно с применением упрощенного языка разметки или «викитекста» из Web-браузеров Internet или intranet. Это позволяет создавать wiki-приложения непрограммистам и добавлять к этим приложениям новые возможности без знакомства с их кодом. В wiki используются различные механизмы для отслеживания истории контента, так что пользователи могут видеть, кто и когда его изменял.

В течение многих лет предлагались различные подходы для облегчения управления знаниями, особенно на уровне предприятия, однако обещания сделать подразумеваемые знания явными во многом остаются невыполненными — многие подразумеваемые знания по-прежнему недоступны. Технология wiki обладает потенциалом для сбора этих знаний из различных источников. wiki удовлетворяет четыре важнейшие потребности управления знаниями: сбор знаний у тех, кто ими владеет; преобразование знаний в доступный формат; связывание тех, кому требуются знания, с теми, кто располагает знаниями; организация связей между знаниями.

При классическом управлении знаниями эксперты по сбору знаний отвечают за их сбор от экспертов прикладных областей. wiki обеспечивает удобные средства сбора информации за счет устранения посредников и создания возможности непосредственного разделения знаний между людьми. Кроме того, wiki делает общедоступной информацию или источники, доступные ранее только поставщику контента. Таким образом, пользователи непосредственно влияют на структуру базы знаний и контент. Делая доступной информацию об участниках, wiki содействует установлению связей между заинтересованными сторонами. Наконец, за счет использования гипертекста wiki позволяет участниками связывать соответствующие знания.

Представленная Рамешем Джейном статья называется «EventWeb: разработка антропоцентрической компьютерной системы» (EventWeb: Developing a Human-Centered Computing System).

В известном смысле в центре всего компьютинга находится человек. После того как люди разработали машины, повышающие их физические возможности, они сосредоточились на разработке механизмов, увеличивающих их аналитические способности, и первыми были вычисления. Появились различные типы вычислительных устройств, а в середине XX века — электронные компьютеры. Наращивание аналитических возможностей человека остается основной целью и сегодняшних компьютеров.

Интерес к антропоцентрическим компьютерным системам (Human-Centered Computing, HCC) по-прежнему волнует компьютерное сообщество. В этой области объединяются многие мощные и независимые подходы из разных направлений, от человеко-машинных интерфейсов, машинного зрения, распознавания речи до систем виртуальной реальности. Большинство компьютерных систем позволяет создавать мощные интерфейсы с использованием аудиовизуальных методов. Однако для разработки систем HCC требуются еще качественный контент, тщательно спланированные организация данных и механизмы доступа к ним, а также мощные подходы к внешнему представлению данных.

Проблемы, с которыми сталкиваются исследователи HCC, не ограничиваются интерфейсами и состоят в корректной организации разновидных данных, поступающих из различных источников, нахождении наилучшей комбинации мультимедийных источников для передачи сообщения или события, представлении и распространении этих источников с обеспечением их наилучшего восприятия, а также в содействии совершенствованию знаний и построению сильных сообществ с использованием этих подходов.

Львиная часть подходов, применяемых к компьютерной науке, возникла на основе алфавитно-цифровых данных, которые доминировали когда-то, — исследователи пытаются расширить эти подходы применительно к разнообразным динамическим данным. Для построения новых приложений в различных областях, от биологии до развлечений, от обеспечения безопасности до поддержки бизнеса, нужен свежий взгляд на применяемые сегодня инструментальные средства.

Статью «Безопасное и простое Internet-голосование» (Secure and Easy Internet Voting) написал Джиапиеро Бероджи.

Несмотря на то, что современное общество в большой степени полагается на информационные и коммуникационные технологии в бизнесе, профессиональной деятельности и индустрии развлечений, оно не очень склонно использовать их в сферах, связанных с принятием демократических решений, например, при голосовании. Между тем голоса избирателей, потерянные или неучтенные при подсчете результатов традиционного голосования с использованием бумажных бюллетеней, могли бы оказать значительное влияние на политические решения.

Одна из причин задержки реализации более технологичных методов голосования — почти единодушное недоверие к технологиям Internet. Многие отказываются от электронного голосования как от слишком рискованного предприятия. Другие не понимают серьезных преимуществ электронного голосования над традиционным с использованием бумажных бюллетеней, а это надежная и безопасная предварительная оценка результатов выборов, точный подсчет голосов, возможность проведения голосования как в централизованной, так и в децентрализованной манере и быстрая доступность результатов. Однако ряд стран уже начинает присматриваться к системам электронного голосования. В трех кантонах Швейцарии системы электронного голосования уже используются. Цюрихская система электронного голосования, введенная в действие в декабре 2004 года, отличается модульной сервисной архитектурой, которая позволяет избирателям отдавать свои голоса с использованием различных электронных устройств — компьютеров, КПК, мобильных телефонов и даже интерактивного телевидения.

Обеспечение возможности выбора между электронным и бумажным голосованием означает, что все граждане могут голосовать, независимо от их уровня подготовки к использованию современной технологии, а среди населения отсутствует боязнь электронных устройств.

На эксплуатацию систем тратится около 500 тыс. евро в год, что приблизительно соответствует затратам в размере 50 центов на один голос. После завершения в 2006 году фазы тестирования системы ее начали использовать три общины кантона Цюрих. Системой хотели бы пользоваться многие другие граждане, но швейцарское правительство разрешило пользоваться системой электронного голосования только 10% электората. Как только правительство снимет это ограничение, системой смогут пользоваться все общины кантона, что станет возможным благодаря масштабируемой сервисной структуре системы.

Последнюю статью тематической подборки написали Срижит Наир, Бруно Крипсо, Эндрю Таненбаум и Рон Герриц. Название статьи — «Тинейджеры превращаются в музыкальные магазины» (Turning Teenagers into Stores).

Сочетание компьютеров, Internet, музыки и энтузиазма тинейджеров приводит к вытеснению музыкальной индустрии. Более ста лет со времени изобретения Томасом Эдисоном фонографа в 1877 году эта индустрия продавала в магазинах музыкальных товаров и универмагах клиентам синглы и альбомы, написанные на восковых или пластиковых носителях. Затем появлялись новые носители, пластинки, проигрываемые на скорости 78 и 45 оборотов в минуту, долгоиграющие пластинки со скоростью 33 оборота в минуту, наконец, компакт-диски, но бизнес-модель оставалась неизменной. Однако после изобретения и стандартизации инженерами, работавшими в проекте номер 147 европейской программы Eureka, алгоритма психоакустической компрессии MP3 началась эпоха загружаемой цифровой музыки.

После выпуска Институтом Фраунгофера в 1994 году первого кодера MP3 многие молодые любители музыки начали кодировать свои аудиодиски в формате MP3 и сохранять их на жестких дисках своих компьютеров. До изобретения MP3 хранение музыки на ПК было непрактичным, поскольку для сохранения одного CD могло бы потребоваться до 650 Мбайт, а в то время емкость жестких дисков не превышала 1 Гбайт. Но после появления десятикратного сжатия с небольшой потерей качества хранение и воспроизведение музыки на компьютерах стало пользоваться стремительно возрастающей популярностью.

Через недолгое время знакомые стали обмениваться музыкальными файлами через Internet. В 1999 году дебютировал сервис Napster, предложивший поддержку центрального каталога людей и имеющихся у них песен, так что появилась возможность прямого копирования песен с удаленных жестких дисков совсем незнакомых людей. Пользователи Napster расценивали как замечательное изобретение возможность однорангового совместного использования файлов. К несчастью для них в музыкальной индустрии восприняли эту ситуацию иначе — как посягательство на свою интеллектуальную собственность, и ответили судебным преследованием Napster, что привело к прекращению его функционирования. Napster вскоре сменили децентрализованные сервисы, такие как Kazaa и Grokster, и они тоже подверглись судебному преследованию. Музыкальная индустрия стала предъявлять иски отдельным тинейджерам за нарушение авторских прав, стремясь к максимальной гласности при внесудебном урегулировании претензий на тысячи долларов.

Со временем боссы музыкальной индустрии поняли, что тяжбы с собственными клиентами — в особенности с подростками — не являются правильной бизнес-моделью. Это привело к появлению онлайновых музыкальных магазинов, дающих возможность клиентам законным образом покупать и скачивать песни с центрального сервера магазина. Первым крупным онлайновым продавцом музыки стала компания Apple, основавшая очень успешный магазин iTunes и выпустившая плейер iPod.

В iTunes используется FairPlay, централизованная система цифрового управления правами (digital rights management, DRM), которая поддерживает контакты пользователей с сервером Apple для покупки и скачивания музыки, а также авторизацию доступа. Когда компания Microsoft в ноябре 2006 года выпустила свой плеер Zune и открыла онлайновый магазин, она добавила к списку услуг возможность, отсутствующую в iTunes — перезапись песен на плейер Zune в автономном режиме без потребности в предварительном контакте с центральным сервером Zune. Однако пользователь может переписать песню только три раза, и она сохранится только три дня (в левой части рис. 1 показана модель iTunes, а в правой — модель Zune.)

Рис. 1. Услуга перезаписи песен

Сегодня музыкальные компании начали понимать, что цифровая музыка является их другом, а не врагом — точно так же, как киностудии прекратили преследовать производителей видеокассетных магнитофонов и начали сдавать фильмы в аренду. Осознают они и то, что многие подростки узнают о песнях, подключив свои наушники к плейеру своего друга. Эти соображения приводят к тому, что некоторые руководители музыкальной индустрии начинают подумывать о возможности превращения тинейджеров в мелких продавцов, легальным образом перепродающих купленные ими песни. Более прозаично это называется «супердистрибуцией».

В Амстердамском свободном университете разработана система, которую можно было бы использовать в качестве прототипа. Система рассчитана на следующий сценарий использования музыки. Некто Боб посещает поставщика онлайнового контента, такого как iTunes, и покупает песню за 99 центов. Заподозрив, что эта песня понравится и его друзьям, он покупает право на перепродажу песни девяти своим друзьям за общую сумму в 8,91 евро, получая скидку в 10% за покупку 10 единиц товара. Он сразу платит 8,91 по своей кредитной карте. Затем Боб связывается со своим товарищем Марком и говорит ему о том, какую замечательную песню он только что скачал. После прослушивания песни на плеере Боба Марк решает купить копию. Боб продает Марку копию по беспроводной связи за 95 центов, получая 6 центов прибыли.

По дороге домой Боб встречает Эллис и продает ей копию той же песни. Эллис говорит Бобу, что ее подруге Мэри тоже могла бы быть интересна эта песня, и поэтому он покупает копию для себя и право на ее одиночную перепродажу, платя Бобу 1,90 евро. Когда Эллис встречается с Мэри, она продает ей ту же песню на 97 центов (см. иллюстрацию проведенных транзакций на рис. 2).

Рис. 2. Процесс превращения тинейджеров в мелких продавцов

Преимущества для потребителей, таких как Боб и Эллис, очевидны. Действуя в качестве посредника владельца контента, клиент получает прибыль от каждой продажи песен. Выигрывают и Марк и Мэри, поскольку получают песню немедленно и дешевле, чем в магазине. Владелец контента может получить больше потенциальных покупателей, и, что более важно, при этом формируется сеть потребителей с общими пристрастиями, которую вряд ли можно было бы построить с помощью маркетинговых акций. Кроме того, поскольку многие продажи совершаются без обращения к центральному серверу, требования к его мощности и пропускной возможности сети существенно уменьшаются, что позволяет сократить расходы. Конечно, для всего этого требуется технология, которая позволила бы исключить бесплатное распространение контента.

Авторами статьи «Авторизация карточных платежей с использованием PIN-кодов» (Authorizing Card Payments with PINs), опубликованной вне подборки, являются Вацлав Матиаш, Ян Крховяк, Марек Кумпост и Дан Чрвычек.

Появление технологии Chip and PIN для авторизации при покупках через пластиковые карты привело к многочисленным дискуссиям в сообществе компьютерной безопасности. Технология Chip and PIN призвана заменить взятие оттиска карты или прокатывание карты с магнитной полосой по читающему устройству при выполнении транзакций. Оба эти сценария показали себя достаточно эффективными, однако у злоумышленников остается возможность похитить карту и подделать подпись.

Технология Chip and PIN предполагает использование смарт-карт, содержащих встроенную микросхему, а также клавиатур для ввода PIN-кода или модифицированных устройств чтения. После того, как система распознает карту как подлинную, клиент вводит четыре цифры PIN-кода, которые сопоставляются со значением PIN-кода, хранящимся в карте. Системы была запущена в Великобритании в 2004 году и с тех пор банки начали выпускать карты, содержащие как магнитную полосу, так и микросхему.

Для изучения вопроса о преимуществах новой системы аутентификации авторы провели эксперимент, в котором оценивалось, стало ли легче действовать злоумышленникам, и не стало ли труднее клиентам оспаривать жульнические транзакции. Результаты эксперимента показывают обоснованность этих опасений.

Последняя большая статья февральского номера — «Перспективы высокопроизводительных реконфигурируемых компьютеров» (The Promise of High-Performance Reconfigurable Computing) — написана Тареком Эль-Жазави, Эсамом Эль-Араби, Миаокингом Хуангом, Крисом Гаем, Володимером Киндратенко и Дунканом Бюэллем.

В последние годы поставщики средств высокопроизводительных вычислений (high-performance computing, HPC) выпустили немало систем, содержащих как микропроцессоры, так и программируемые логические матрицы (field-programmable gate array, FPGA). Из них три системы — Cray XD1, SRC-6 и SGI Altix/RASC — являются параллельными компьютерами, похожими на современные высокопроизводительные вычислительные архитектуры, в которые добавлены схемы FPGA. Cray XD1 и SGI Altix могут функционировать и как традиционные архитектуры без реконфигурируемых микросхем. Кроме того, в нескольких кластерных системах Beowulf в каждом из узлов содержатся одна или несколько схем FPGA.

Во всех этих архитектурах FPGA выступают в качестве сопроцессоров. Основное приложение выполняется на микропроцессорах, а FPGA поддерживают выполнение центральных частей приложения, требующих большого времени обработки, но допускающих аппаратную реализацию. Эти части приложений обычно содержат параллельные, перекрывающиеся по данным вычисления, которые можно эффективно реализовать на основе мелкоструктурных архитектур, например, архитектур SIMD (single instruction, multiple data) или систолических матриц. При выполнении приложения на микропроцессоре может происходить вызов соответствующей архитектуры в реконфигурируемом процессоре для выполнения целевой операции. Для этого реконфигурируемый процессор может «на лету» сконфигурировать FPGA, в то время как другие процессоры системы выполняют вычисления.

При разработке приложений разработчики могут создавать аппаратно поддерживаемые части приложений с использование языков описания аппаратуры, таких как VHDL и Verilog. В некоторых системах для этого допускается использование языков высокого уровня, подобных Carte C и Carte Fortran в системах компании SRC Computers, Impulse C в системах Impulse Accelerated Technologies, Mitrion C в системах Mitrionics и Handel-C в системах Celoxica. Имеются также высокоуровневые графические средства разработки, такие как CoreFire от компании Annapolis Micro Systems, Viva от Starbridge Systems, Xilinx System Generator и Reconfigurable Computing Toolbox от DSPlogic. Обзор современных высокопроизводительных реконфигурируемых систем, средств разработки и приложений содержится в выпуске журнала Computer за март 2007 года.

Многие ранние высокопроизводительные реконфигурируемые системы, такие как SRC-6E и Starbridge Hypercomputer, можно рассматривать как подсоединенные процессоры. В этих системах имелись два узла, один из которых строился на основе микропроцессоров, а другой на основе FPGA. Эти два узла связывались напрямую, без использования какого-либо масштабируемого механизма соединений. В данной статье внимание уделяется масштабируемым параллельным системам, таким как Cray XD1, SRC-6 и SGI Altix/RASC, а также реконфигурируемым кластерам Beowulf.

В некоторых из этих архитектур узлы системы являются однородными, а в других — разнородными. В данном контексте однородный узел содержит процессорные элементы только одного типа, например, только микропроцессоры или FPGA. На основе этого различия авторы группируют современные высокопроизводительные реконфигурируемые системы в два класса — неоднородные системы с однородными узлами (uniform node nonuniform system, UNNS) и однородные системы с неоднородными узлами (nonuniform node uniform system, NNUS).

Примеры UNNS — SRC-6 и Altix/RASC. Основным преимуществом UNNS является то, что поставщики могут изменять соотношение микропроцессорных и реконфигурируемых узлов в соответствии с требованиями приложений заказчиков. Этот подход чрезвычайно желателен с экономической точки зрения при наличии существенной разницы в цене микропроцессоров и FPGA, и он очень подходит для создания специализированных систем. Недостатком является то, что реконфигурируемый и микропроцессорный узлы взаимодействуют через общую соединительную сеть, конкурируя за ее пропускную способность. Кроме того, проблемой может стать обеспечение переносимости кода приложений даже на машину того же типа, но с другим соотношением микропроцессорных и FPGA-узлов.

В NNUS используется только один тип узла, и поэтому системный уровень является однородным. Однако в каждом узле содержатся оба типа ресурсов, и FPGA подсоединяются к микропроцессорам внутри узлов напрямую. Примерами таких систем являются Cray XD1 и реконфигурируемые кластеры. Основным недостатком NNUS является фиксированное соотношение микропроцессоров и FPGA. Однако они соответствуют модели SPMD (single-program, multiple-data), на которую опирается большинство парадигм параллельного программирования. Кроме того, низкий уровень задержки при взаимодействии микропроцессора с сопроцессором FPGA может обеспечить высокую производительность многих приложений с интенсивной обработкой данных.

До следующей встречи, Сергей Кузнецов, kuzloc@ispras.ru.


Как поймать в Сети злоумышленника?
http://www.osp.ru/os/2007/02/4107227