Нуль и единица - от Бога, все остальное - дело рук человеческих. Леопольд Кронекер

Первая в России международная конференция DSPA'98 «Цифровая обработка сигналов и ее применения» (Digital Signal Processing and its Applications) состоялась в конце июня в Москве. Ее организаторами стали РНТОРЭС им. Попова, Государственный институт радио, МЦНТИ, IEEE ComSoc и ИТЦ «Мобильные коммуникации» при поддержке Комитета РФ по связи и информатике. В работе DSPA'98 приняли участие более 200 ученых из 15 стран мира.

На конференции действовали 8 секций: Теория сигналов и систем, Цифровая фильтрация и статистическая обработка сигналов, Цифровая обработка сигналов в системах телекоммуникаций, Цифровая обработка сигналов в радиолокации и гидроакустике, Цифровая обработка изображений, Цифровая обработка измерительной информации, Новые микропроцессорные и инструментальные средства проектирования систем обработки информации и Цифровое радиовещание.

В рамках конференции была организована выставка, на которой демонстрировалась продукция компаний - производителей устройств для цифровой обработки сигналов. На стендах была представлена продукция фирм Analog Device и Philips (официальный дистрибутор в России - Autex), а также российских компаний, таких как Scan и АОЗТ «Инструментальные системы» (специализируются на разработке аппаратуры на базе процессоров TMS320xx фирмы Texas Instruments), ЗАО «Аргуссофт», ООО «ЭФО» и др.

В течение четырех дней участники конференции обсуждали основные аспекты теории и практики цифровой обработки сигналов. Российские и зарубежные авторы сделали 173 доклада, которые охватили широкий круг проблем, связанных с разработкой эффективных алгоритмов обработки и их практической реализацией. Конечно, журнальная публикация не позволяет дать содержательный анализ всех выступлений, поэтому мы остановимся лишь на тех из них, которые вызвали наибольший интерес.

Теория сигналов и систем

Сегодня обработка аналоговых сигналов с использованием цифровых преобразований все шире используется для решения множества прикладных задач в связи, радиолокации, измерительной технике, медицине и других областях науки и техники, в которых прежде доминировали аналоговые системы.

Преимущества цифровых систем обусловлены рядом факторов. Прежде всего, это фактор качества. Аналоговые реализации зачастую не позволяют обеспечить высоких показателей качества передачи и воспроизведения сигнала, а переход на мировые стандарты ужесточает требования, предъявляемые к таким параметрам систем, как помехоустойчивость, точность, быстродействие.

Если 10-15 лет назад основным сдерживающим фактором внедрения методов цифровой обработки было отсутствие требуемой элементной базы, то на современном этапе развития техники уже можно говорить о «кризисе алгоритмов», т. е. об отсутствии эффективных алгоритмов, обеспечивающих решение ряда прикладных задач. Анализируя эту проблему, многие докладчики указывали на противоречие между уровнем развития прикладной науки, предлагающей совершенно новые алгоритмы цифровой обработки, и определенным консерватизмом разработчиков, предпочитающих использовать традиционные подходы.

В настоящее время на рынке средств цифровой обработки сигналов предлагается широкий спектр цифровых сигнальных процессоров общего и специализированного назначения, т.е. реально существует элементная база для реализации сложных адаптивных алгоритмов обработки.

Цифровая фильтрация

Для осуществления оптимальной обработки сигналов (создания оптимального фильтра) необходимо выполнить постановку, формализацию и решение задачи синтеза структуры фильтров, удовлетворяющих заданной совокупности показателей качества и ограничений. В настоящее время главным критерием при проектировании таких систем является минимизация среднеквадратичной ошибки. В зависимости от того, какими уравнениями описывается состояние системы, оптимальные (квазиоптимальные) фильтры подразделяются на линейные и нелинейные. Первые обычно базируются на оптимальном фильтре Калмана, а вторые - на многоканальных цифровых фильтрах, качество работы которых зависит от числа каналов.
При разработке адаптивного фильтра структура и параметры устройства подстраиваются под априорно неизвестную структуру исследуемого процесса с целью возможно более эффективного решения поставленной задачи. Как правило, это рекуррентная процедура пересчета вектора отсчетов импульсной характеристики. Однако априорно устойчивые адаптивные алгоритмы, как правило, чрезвычайно сложны в реализации, а более простые алгоритмы (например, известный метод наименьших квадратов - МНК) могут расходиться. Тем не менее сегодня наиболее распространенными являются алгоритмы на основе МНК и рекуррентного метода МНК (так называемые РМНК-алгоритмы), а также методы, базирующиеся на нелинейной теории устойчивости.
В практике реализации ЦФ часто встречаются ситуации, когда применение корректных с математической точки зрения процедур обработки становится нецелесообразным из-за неоправданно высоких затрат на их аппаратное воплощение. В таких случаях принято использовать эвристическую фильтрацию. Современная классификация определяет три группы эвристических фильтров.
Первая группа реализует ЦФ, устанавливающие, какие импульсы (+1или-1) преобладают во входном сигнале. Вторая работает с унитарным счетно-импульсным кодом без частотной избирательности, накапливая входные коды в реверсивном счетчике. Она применяется в тех случаях, когда входным сигналом является последовательность импульсов. К третьей группе относятся фильтры с эвристическими (авторскими) схемными решениями. В нее, в частности входят медианные фильтры для сглаживания шума, которые часто обеспечивают лучшую фильтрацию сигнала, чем линейные низкочастотные фильтры.
Основной задачей при проектировании эвристических ЦФ является такая формализация алгоритмов, которая позволяет адаптировать их к современной элементной базе.

Фильтрация и статистическая обработка

Анализ состояния и тенденций развития теории и практики цифровой фильтрации показывает, что основными используемыми методами являются частотная селекция сигналов и оптимальная (адаптивная) фильтрация.

Классификация цифровых фильтров (ЦФ) была предложена в докладе Д.А. Губанова и В.Б. Сташенко (steshek@sm.bmstu.ru). В ее основу положен функциональный признак (т. е. используемые алгоритмы цифровой фильтрации, а не схемотехнические решения), согласно которому ЦФ подразделяются на 4 группы: фильтры частотной селекции, оптимальные (квазиоптимальные), адаптивные и эвристические.

Наиболее изученными и опробованными на практике являются ЦФ частотной селекции. Они почти всегда представляют собой реализованные на новой элементной базе традиционные аналоговые фильтры частотной селекции. Выступления участников конференции показали, что развитие цифровых средств частотной селекции происходит в следующих направлениях:

  • создание пакетов прикладных программ для структурного синтеза, анализа качества фильтрации, обеспечения схемотехнической реализации и тестирования устройств;
  • совершенствование существующих методов оптимального проектирования многоступенчатых структур с целью их полной формализации и включения в состав ПО;
  • разработка новых подходов к проектированию ЦФ частотной селекции с улучшенными качественными показателями.

Новейшие технические реализации как традиционных, так и нетрадиционных задач цифровой обработки сигналов чаще всего используют разные схемотехнические решения. Наибольшее внимание участников секции цифровой фильтрации привлекли алгоритмы многоскоростной обработки сложных сигналов, которые содержат как быстро, так и медленно меняющиеся составляющие. Такой алгоритм должен предусматривать предварительное разделение «быстрых» и «медленных» компонентов с понижением частоты дискретизации «медленных» составляющих и последующей их обработкой. Ряд докладов был посвящен адаптивной фильтрации узкополосных сигналов, построенной на базе многокомпонентной модели частотно разнесенных составляющих (полезного сигнала и помехи).

Современные вычислительные средства позволяют решать в режиме реального времени и задачи многомерной фильтрации, существенно более сложные, чем цифровая фильтрация одномерных сигналов, выполняемая с помощью сигнальных процессоров или многопроцессорных систем. Проблеме проектирования многомерных фильтров было посвящено несколько докладов, в которых рассматривались ЦФ, чьи алгоритмы созданы на базе наиболее «модного» в настоящее время «метода пространства состояний» (А.В. Ванюшенков и А.Л. Приорова, pri@cnit.uniyar.ac.ru).

Практическая реализация ЦФ Гильберта для диапазона частот от 300 Гц до 3,7 кГц была описана в докладе

М.Г. и А.А. Витковых (Cito@ippi.ras.ru), которые использовали для своего алгоритма традиционную аппроксимацию по Чебышеву.

Интересным оказалось и выступление Ю.С. Шинакова и Ю.Я. Бурова (Москва), разработавших алгоритм построения трансверсальных фильтров на основе метода разностной цифровой фильтрации. Основными достоинствами описанного в докладе метода являются отсутствие операций умножения (что существенно сокращает количество аппаратных средств, необходимых для реализации данного типа фильтра) и прямая зависимость точности фильтрации от числа дополнительных сумматоров.

Цифровые методы фильтрации широко используются для решения задач анализа и синтеза радиолокационных сигналов, определения параметров траектории движения объектов, спектрального анализа и т.п. Применение ЦФ позволяет улучшать технико-экономические показатели систем передачи информации, оценивать электромагнитные и радиоционные параметры излучения. Только цифровые фильтры обеспечивают реализацию жестких норм, предъявляемых к оборудованию различного назначения современными стандартами.

Cистемы телекоммуникаций

Турбо-кодирование

Понятие турбо-кодов появилось в теории обработки сигналов сравнительно недавно, однако сразу же привлекло внимание специалистов. Применение турбо-кодов обеспечивает высокую эффективность обработки сигналов, недостижимую при реализации любого другого из существующих методов: вероятность ошибки составляет 10-5 при соотношении сигнал/шум 0,7 дБ.

Практическая реализация обработки сигнала с помощью турбо-кодов связана с рядом трудностей, вызванных, главным образом, высокой сложностью алгоритмов декодирования. Исследованию этих проблем был посвящен доклад Ю.С. Шинакова и А.С. Максягина (dsplab@dsplab.msk.ru). В нем рассматривалась возможность реализации турбо-декодеров на DSP-процессорах и была выполнена экономическая оценка затрат на аппаратную и программную реализацию модифицированного алгоритма Витерби с «мягкими» решениями, известного под названием SOVA (Soft-decision Outputs Viterbi Algorithm). Интересные результаты были получены авторами для турбо-декодера с процессором DSP56303 фирмы Motorola: при числе итераций n=6 и тактовой частоте 80 МГц среднее время декодирования одного бита по алгоритму SOVA составляет 6,45 мс, что соответствует максимальной скорости около 155 кбит/c, если DSP-процессор выполняет только одну задачу - декодирования турбо-кода.

Прием сигналов на фоне помех

Анализ работ по теории сложных сигналов позволяет выделить два основных направления: оценка корреляционных свойств сложных сигналов и методов их формирования; оценка характеристик оптимальных приемников.

Одной из эффективных мер борьбы с мощными узкополосными помехами в системах связи с шумоподобными сигналами (ШПС), как известно, является их режекция с восстановлением переданной информации по оставшейся части ШПС. Применение адаптивных ЦФ при приеме ШПС в условиях воздействия узкополосных помех базируется на предсказании помехи по отсчетам входного сигнала. Поскольку интервал корреляции помехи много больше интервала корреляции между ШПС и шумом, то отсчеты входного полезного сигнала со скоростью следования символов ШПС будут коррелированы намного меньше, чем отсчеты узкополосной помехи. По этому различию можно прогнозировать узкополосные помехи для последующего их подавления.

Алгоритмы адаптивной цифровой фильтрации узкополосных помех, разработанные В.М. Зинчуком и А.Е. Лимаревым (Воронеж) совместно с Ю.Г. Сосулиным (sosulin@frances.msu.ru), стали предметом доклада г-на Сосулина и В.В. Кострова. Была решена задача оценочно-корреляционного обнаружения произвольных сигналов на фоне шума и проведен сравнительный анализ оптимального и квазиоптимального алгоритмов обнаружения, основанных на фильтрационном и экстраполяционном методах оценки (предполагалось, что помехи могут иметь плотность распределения как по Гауссу, так и по другому закону). Предложенные алгоритмы вычисления справедливы при весьма общих моделях сигналов - марковских и немарковских.

Результаты исследования подтвердили, что при точном моделировании в одних и тех же условиях работы сравниваемые алгоритмы обеспечивают практически одинаковую эффективность, а выбор алгоритма зависит только от возможностей технической реализации. Обнаружение сигнала выполнялось с помощью моделирования помехи с j-шумом.

Технология CDMA

Повышенный интерес к CDMA-технологии связан, в первую очередь, с широкомасштабным развертыванием сотовых CDMA-сетей связи во всем мире. Наиболее острые споры вызывает вопрос об эффективности метода CDMA по сравнению с традиционными, основанными на частотном и временном разделении каналов. Одним из интереснейших стало выступление Д.Д. Кловского и Б.И. Николаева (lih@jil.samara.su), посвященное оценке потенциальных характеристик систем многостанционного доступа с кодовым (CDMA ) и временным (TDMA) разделением в многолучевом канале.

Принципиальное различие систем TDMA и CDMA заключается в отсутствии межканальной помехи в реально существующем многолучевом радиоканале TDMA (в силу временного разделения). В системах на базе CDMA избавиться от межканальной помехи принципиально невозможно, причем ее уровень будет тем больше, чем больше разница в уровнях излучаемой мощности передатчиков различных абонентов. Однако несомненным достоинством CDMA-систем является отсутствие жесткого ограничения числа одновременно (активно) работающих абонентов.

Сравнительный анализ эффективности рассматриваемых систем CDMA и ТDMA проводился в предположении, что для некоторой расчетной совокупности сот в обоих системах применяются одинаковая полоса частот и одинаковые мощности передающих устройств базовых и мобильных станций. Кроме того, не учитывались потери пропускной способности за счет передачи пилот-сигнала в CDMA-системе и использования защитных временных интервалов в ТDMA-системе. Анализ помехоустойчивости сводился к определению вероятности ошибки на бит при оптимальном когерентном (субоптимальном) приеме в многолучевом канале с белым «гауссовым» шумом. Помехоустойчивость системы оценивалась при манипуляции минимальным сдвигом (MSK), обычно применяемой в сетях на базе TDMA, а также при квадратурной фазовой манипуляции (QPSK), традиционной для стандарта CDMA (IS-95).

Полученные результаты позволили выявить любопытный факт: при фиксированной суммарной полосе частот в однолучевом (или многолучевом) канале число абонентов в системе CDMA всегда меньше, чем в случае TDMA, причем проигрыш возрастает по мере повышения требуемой достоверности приема информации. Так, при вероятности ошибки pош=10-6 и базе сигнала 100 проигрыш равен 2,53 дБ. Только если в месте приема обеспечивается синфазное сложение сигналов отдельных лучей (что трудно реализовать на практике), система CDMA может иметь болшее число активных абонентов. Выигрыш в двухлучевом канале при тех же условиях приема информации (pош=10-6, база сигналов 100) составит 1,56 дБ.

Реализации CDMA-технологии на моделях, которые соответствовали стандартам IS-95 и IS-127, было посвящено также выступление представителей Института проблем информатики (ИПИ) В.Б. Егорова и др. (fil@ipi.ac.ru). В представленном на секции докладе были сформулированы три основных направления исследования CDMA-технологии: моделирование CDMA-канала, анализ процедуры обмена сообщениями и их обработки мобильной станцией стандарта IS-95A, моделирование речевого кодера с переменной скоростью передачи (стандарт IS-127).

Авторами предложена оригинальная трехслойная модель: CDMA-канал (первый слой), процедуры доступа (второй слой) и алгоритмы обработки сообщений (третий слой). Отличительной особенностью такого CDMA-вокодера является его полная совместимость с требованиями стандарта IS-127. В процессе работы над моделью авторы тесно взаимодействовали с Комитетом по стандартам для высококачественного кодирования с переменной скоростью (Enhanced Variable Rate Coding Standard Committee) и внесли более 50 поправок и предложений в стандарт IS-127.

Универсальная СИ-модель вокодера, предложенная представителями ИПИ, охватывает все аспекты кодирования и декодирования речевого сигнала при скоростях передачи 9600, 4800 и 1200 бит/с. Кроме того, авторами была исследована модель вокодера при скорости сигнала 2400 бит/с, которая не упоминается в стандарте IS-127, но разрешена стандартом IS-95A.

Нелинейные двоичные последовательности

В последнее время заметно вырос интерес к обработке сигналов, состоящих из нелинейных двоичных последовательностей. Как известно, чтобы определить форму сигнала, достаточно правильно принять его «порцию» длиной 2n символов, где n - степень порождающего полинома. Теоретически доказано, что хорошую автокорреляцию имеют М-последовательности (максимального периода), последовательности квадратичных вычетов с периодом N=4x+3 (x = 1, 2..., N - простое число), последовательности Холла с периодом N = 4x+27 и некоторые др.

Кроме последовательностей максимального периода, все остальные являются нелинейными, т.е. для их формирования требуется значительно большая длина регистра, чем для обработки линейных М-последовательностей.

В этой области цифровой обработки сигнала участникам конференции был преподнесен приятный сюрприз. В выступлении В.Е. Гантмахера и Ю.В. Захарина (gant@lan.novsu.ac.ru) были представлены алгоритмы расчета таблиц неприводимых полиномов для простых и расширенных полей полиномов Галуа, а также наиболее полные из известных в отечественной и зарубежной литературе таблицы полиномов с указанием корней и их периодов.

С помощью алгоритмов цифровой обработки телекоммуникационных сигналов, реализованных на современной элементной базе, могут быть успешно решены задачи помехоустойчивого приема информации и повышена пропускная способность систем связи за счет более эффективной обработки информации. Исследованию алгоритмов декодирования на базе последовательностей Гордона-Милса-Велча был посвящен доклад В.Д. Дворникова и А.И. Макарова (green@kamerton.belpak.minsk.by). По мнению участников конференции, предложенные ими модели радиоканалов очень актуальны для тестирования современных линий связи и испытаний аппаратуры.

Цифровая обработка изображений

Цифровые методы обработки сигналов в различных областях науки и техники породили серьезный интерес к технике передачи, сжатия, преобразования и обработки изображений, особенно видеоинформации. Этой теме на конференции было посвящено более 30 докладов.

В наши дни в телевизионной отрасли не только активно внедряются цифровые технологии, но и формируется глобальное вещательное пространство Web TV, особенностью которого являются многочисленные информационные узлы и цифровая телевизионная сеть с интерактивным режимом работы и принципиально иным качеством изображения. Методы обработки видеоинформации, способы сокращения ее избыточности и уплотнения цифровых потоков позволяют создавать на современной микропроцессорной базе, обеспечивающей параллельную многоканальную обработку видеоданных, принципиально новые аппаратные комплексы для формирования, передачи и хранения видеоинформации.

С обоснованием концепции развития цифрового ТВ-вещания в России выступил Ю.Б. Зубарев (НИИ Радио, Москва). Предложенная им концепция основана на двухэтапном внедрении цифрового телевидения в России. На первом этапе предполагается создавать каналы со смешанным (аналоговым и цифровым) телевизионным вещанием, опытные зоны которого позволят на практике проверить основные положения концепции и опробовать новые технологии.

Одним из основных положений концепции цифрового ТВ является также иной подход к формированию телевизионных программ, который предусматривает оперативное включение в них множества видеоисточников, в том числе из информационных сетей, например из Internet, а также обеспечение телеабонентов программами по запросу.

Стандарт MPEG

Однако не концептуальные проблемы стали основным предметом горячих обсуждений участников конференции. Главные дискуссии касались более «практических» вопросов - сжатия изображений и их распознавания.

Известно, что для эффективного распознавания необходимо использовать оптимальные методы сегментации изображений. При обработке сигнала эта операция должна быть выполнена прежде, чем сравнение найденных объектов с эталонными. Сегментированное изображение представляет собой объединение непересекающихся областей с определенными свойствами, которые называются моделями изображений. Так, при сегментации по цвету все пикселы внутри каждой из областей имеют одинаковый цвет. Вопросам сегментации цветовых изображений было посвящено немало выступлений.

Следует отметить, что большая часть докладов секции обработки изображений касалась проблем сжатия данных и применяемых алгоритмов. Среди множества различных способов сжатия наибольшее практическое распространение получили методы на основе блочного кодирования видеоданных, использующие дискретные линейные ортогональные преобразования. К ним, прежде всего, относятся процедуры сжатия JPEG и MPEG.

В стандарте JPEG (как и при устранении пространственной избыточности в кодере MPEG) сжатие информации осуществляется с помощью дискретного косинусного преобразования (ДКП) двумерных блоков размером 8х8 пикселов и квантования коэффициентов ДКП. Степень компрессии зависит от характера кодируемого видеосигнала и качества восстановленного изображения и составляет от 2:1 до 15:1.

Известно, что все методы сжатия видеоинформации основаны на устранении (в той или иной степени) статистической и психофизиологической избыточности кодируемых видеосообщений (последняя обусловлена, в частности, пространственно-временными ограничениями зрительного восприятия). Алгоритмы JPEG и MPEG частично устраняют оба вида избыточности. и округлении и отбрасывании малых по величине высокочастотных спектральных составляющих учитывается анизотропия пространственного разрешения зрения. Кодирование оставшихся коэффициентов неравномерным кодом Хаффмена и использование в MPEG межкадровой ДИКМ устраняет статистическую избыточность преобразованных изображений.

Однако увеличение коэффициентов сжатия приводит к появлению артефактов, т.е. различного рода посторонних узоров и муаров на изображении, в том числе в виде блочной структуры, присущей всем методам блочного кодирования. Поэтому, несмотря на свою относительную эффективность и простоту аппаратурной реализации, методы JPEG и MPEG в полной мере не обеспечивают необходимых для многих практических приложений высоких коэффициентов сжатия видеоданных.

Более эффективно осуществлять сжатие позволяют процедуры wavelet-преобразования или фрактальные методы кодирования. Правда, длительность самого преобразования и сложность аппаратной реализации пока ограничивает их применение.

Наибольшее внимание было уделено известному семейству стандартов сжатия информации MPEG (табл. 4). Так, в сообщении М.Ф. Грудзинского и Р.Е. Быкова (root@post.etu.spb.ru) был описан отечественный серийный декодер на базе цифрового стандарта MPEG-2, который поддерживает декодирование сигналов изображения и звука в режиме реального времени при передаче цифрового потока со скоростью до 80 Мбит/с.

Методы анализа и компенсации движения при сжатии телевизионных изображений с использованием стандарта MPEG стали предметом доклада Ю.Б. Зубарева и др. Поскольку анализ движения в системах кодирования на базе MPEG-1 и MPEG-2 является одним из наиболее «затратных» элементов алгоритма обработки, то основное внимание в докладе было уделено проблеме выбора эффективного метода вычислений, который способен обеспечить минимальное число операций на пиксел изображения.

Фундаментальный анализ характерных искажений, вносимых в видеосигнал при цифровом кодировании по стандарту MPEG, был проведен группой специалистов из НИИ Радио (доклад А.В. Дворковича и др.). Они предложили классификацию основных типов искажений и их характеристик (табл. 1). Классификация методов сжатия и применяемых алгоритмов (табл. 2) была представлена в докладе С.В. Дворянкина и В.Р. Григорьева (Москва), содержащем подробный сравнительный анализ различных алгоритмов сжатия.

В последнее время особый интерес вызывают алгоритмы, сжимающие видеоданные с потерей информации. В них, как правило, можно задавать коэффициент сжатия, а следовательно, степень потери качества. Таким образом, возможно оптимизировать размер и качество изображения.

Фрактальное кодирование

Фрактальное кодирование заключается в построении для исходного изображения набора преобразований особого вида, который позволяет генерировать исходное изображение с незначительными потерями. Основное отличие методов фрактального кодирования от более распространенных, таких как JPEG или MPEG, состоит в следующем. После подобной обработки код изображения содержит только функциональные зависимости между сегментами изображения. Поэтому при фрактальном кодировании можно достичь весьма высоких ( до 30-50) коэффициентов сжатия, а визуальное качество изображения почти не меняется. Однако этот тип сжатия целесообразно применять лишь для больших изображений.

Проблемам фрактального кодирования было посвящено выступление Н.Б. Новинского и В.В. Нечепаева (НИИ Радио, Москва). Докладчики уделили внимание не только достоинствам метода, но и его недостаткам. Они отметили трудоемкость процедур кодирования и декодирования, а также появление в обработанном изображении эффекта «самоподобия», т. е. распространения свойств одних сегментов (а именно - формы и цвета) на другие.

Wavelet-преобразование

Под wavelet-преобразованием подразумевают множество базисных функций, которые формируют компактное описание видеосигнала. Анализ изображений, построенных на таких базисах, осуществляется по двум переменным - масштабу и сдвигу. Это позволяет разделить крупные и мелкие детали изображений, одновременно локализуя их на временной шкале. Таким образом, учитывается важное для практики обстоятельство: протяженные объекты анализируемых данных лежат в низкочастотной области спектра, а короткие - в высокочастотной. Данный вид преобразования широко используется для анализа нестационарных процессов и изображений. Особенностью wavelet-преобразования является возможность сжатия и восстановления видеоинформации даже для затененных изображений.

Несомненное преимущество применения этого преобразования - возможность представлять быстро изменяющиеся сигналы в компактной форме. Подобно широко используемому быстрому преобразованию Фурье (БПФ), wavelet-преобразование обратимо и может служить инструментом анализа характеристик сигналов (спектральный анализ и др.). В отличие от БПФ (где базисными функциями служат синусы и косинусы) wavelet-преобразования формируют «родительские функции» более сложной формы. Их исходный набор обеспечивает получение бесконечного числа новых форм функций. Поскольку, в отличие от синусов и косинусов, индивидуальные wavelet-функции ограничены в пространстве, с их помощью можно локализовать пространственный объект с высокой степенью точности.

Дискретное wavelet-преобразование воспроизводит конечное число коэффициентов для ограниченной временной или частотной области, а непрерывное wavelet-преобразование - действительное значение функций времени и масштаба. Алгоритм быстрого пирамидального иерархического разложения сигнала в векторы данных половинной длины позволяет получить множество коэффициентов разложения (для разрешения 1/2, 1/4, 1/8 и т. д.). Cтепень сжатия при wavelet-преобразовании зависит от необходимого разрешения.

Сегодня у специалистов не вызывает сомнения, что эти алгоритмы кодирования обладают рядом преимуществ по сравнению с алгоритмами, построенными на основе дискретного косинусного преобразования Фурье, которое используется в кодеках JPEG, MPEG-1, MPEG-2.

Обработка речевых сигналов

Хотя исследования в области цифровой обработки речи ведутся более 40 лет, только с появлением систем персональной связи и новых мультимедийных технологий эта проблема приобрела новое «звучание». Следует отметить, что участники конференции проявили наибольший интерес к двум вопросам - синтезу и шифрованию речи.

Синтез речевых сигналов

Интересный подход к обработке речевых сигналов, основанный на представлении речи в виде графических образов, был описан в докладе С.В. Дворянкина и В.Р. Григорьева (Москва). Предложенный ими способ визуализации речи использует три параметра - интенсивность, частоту и время. Суть метода состоит в восстановлении исходной речи по сонограмме (динамическому амплитудному спектру речевого сигнала). Синтезированная таким образом речь полностью соответствует исследуемому исходному фрагменту речи по критериям естественности, разборчивости и качества.

В эксперименте для преобразования речевого сигнала использовались три операции - сжатие, кодирование и очистка от шумов и помех. Последняя операция выполнялась с помощью автоматической цифровой обработки сонограмм в режиме реального времени. Авторы проанализировали также эффективность различных методов сжатия, применяя речевые сонограммы, подвергавшиеся сжатию с последующим восстановлением и синтезом речи (табл. 3). Из известных «стандартных» методов наиболее эффективным оказался фрактальный. Размерность изображений сонограмм составляла 640х480 точек при градации серого 8 бит/пиксел для каждой секунды речевого сигнала.

Таблица 3.

Усредненные результаты сжатия речевых сигналов

Метод сжатияОтносительный коэффициент сжатияСкорость кодирования речи, бит/с
JPEG12800
Wavelet-преобразование1,751600
Фрактальные методы2,81000
Специальные методы3,5800

Защита речевой информации

Для обеспечения безопасности передачи речевых сигналов используются различные способы шифрования речевых сообщений и введение искажений в речевой сигнал (аналоговое и цифровое скремблирование).

Наряду с традиционными все чаще применяются методы шифрования, известные как компьютерная стеганография.

Суть этих методов - скрытая передача одного вида информации на фоне или внутри другого вида с сохранением всех внешних атрибутов последнего (статистических свойств сигнала, протоколов обмена данными и т. п). Считается признанным фактом, что сочетание стеганографических методов с криптографическими увеличивает степень защищенности передаваемых или хранимых данных. В современной стеганографии применяются, главным образом, два типа шифрования. Это кодирование дополнительной информации в аналоговом или цифровом речевом сигнале (речевая стеганография) и скрытая передача данных в младших битах цифрового изображения (например, дополнительной информации из текстовых или двоичных файлов).

Современное состояние элементной базы

При создании устройств для цифровой обработки сигнала во главу угла всегда ставится элементная база. В настоящее время большинство разработчиков использует для реализации алгоритмов обработки цифровые сигнальные процессоры (ЦСП) общего назначения. Их главными преимуществами являются гибкость базирующихся на них систем, а также возможность реализации адаптивных и обучающих алгоритмов.

Вместе с тем ЦСП имеют и ряд недостатков, которые, безусловно, приходится учитывать при разработке новых изделий. Во-первых, тактовая частота ЦСП не превышает 30-50 МГц, что ограничивает их область применения. Во-вторых, каждое семейство ЦСП имеет собственные коды команд, поэтому практически невозможен перенос реализованного на одном ЦСП алгоритма на процессоры других семейств или создание универсальных библиотек алгоритмов. Даже существование компиляторов с языков высокого уровня не снимает данную проблему, так как они ориентированы на конкретные ЦСП. В-третьих, при реализации сложных структур приходится увеличивать число процессоров и обеспечивать их работу в мультипроцессорном режиме.

До недавнего времени качество ЦСП определялось только скоростью выполнения операций умножения/сложения или количеством операций в секунду. Однако сегодня, при насыщенном рынке мощных ЦСП, на первое место выходят другие требования. Они связаны с архитектурными решениями процессора и расширенными функциональными возможностями - наличием высокоскоростных гибких арифметических средств, встроенных и внекристальных средств циклической буферизации и т. п.

Далеко не все процессоры хорошо удовлетворяют многим из перечисленных требований. В докладе А.В. Калинина, А.В. Переяславцева (avk@vnicom.voronezh.su) и О.В. Черноярова (trif@radio.vsu.ru) был проведен сравнительный анализ архитектуры и технических характеристик базовых цифровых сигнальных процессоров семейства ADSP210xx (Analog Devices), TMS320 (Texas Instruments) и WE DSP16A (AT&T Microelectronics). По мнению авторов, процессор ADSP2101 выгодно отличается от своих конкурентов расширенными и гибкими арифметическими возможностями, лучшей организацией режима адресации, эффективной архитектурой управления программой, удобным синтаксисом ассемблерного кода.

Интерес участников вызвало также выступление В.В. Балашова и В.А. Костенко (kost@cs.msu.su), которые предложили методику цифровой обработки сигналов и ее аппаратную реализацию на базе процессора DSP 96002 (Motorola). В докладе были проанализированы архитектура процессора, его системы команд и особенности их выполнения, а также дана оценка эффективности его использования для решения задач цифровой обработки сигналов.

Как известно, альтернативой ЦСП при реализации ЦФ являются ПЛИС (программируемые логические интегральные схемы). Об основных преимуществах их применения рассказали Д.А. Губанов и В.Б. Сташенко. В числе главных достоинств докладчики указали:

  • высокое быстродействие;
  • возможность реализации сложных параллельных алгоритмов;
  • наличие средств САПР, позволяющих проводить полное моделирование систем;
  • возможность программирования или изменения конфигурации;
  • совместимость при переводе алгоритмов на уровне языков описания аппаратуры (VHDL, AHDL, Verilog и др.);
  • совместимость по уровням и возможность реализации стандартного интерфейса;
  • наличие библиотек программ, описывающих сложные алгоритмы.

Архитектура ПЛИС как нельзя лучше приспособлена для реализации таких операций, как умножение, свертка и т. п. В настоящее время быстродействие ПЛИС достигло 200-300 МГц, что позволяет реализовать многие алгоритмы в радиочастотном тракте (в частности, алгоритмы фильтрации, которые применяются в устройствах с конечной импульсной характеристикой).

Встретимся через год

Дискуссии на прошедшей конференции ярко проиллюстрировали, что новые идеи в области цифровой обработки сигналов не иссякли. В некоторых теоретических, докладах были определены пути дальнейшего развития многих практических областей.

Предложенные алгоритмы, несомненно, помогут расширить возможности сетей передачи информации на базе спутниковых, оптоволоконных и радиорелейных каналов связи, обеспечат передачу и воспроизведение сигнала с требуемым качеством, соответствующим мировым стандартам. Аппаратура, предназначенная для сокращения избыточности информации, кодирования/декодирования и цифровой видеозаписи, внесет свой вклад в решение задач мониторинга окружающей среды, телемедицины. С помощью цифровых методов будут созданы новые, более совершенные, программно-моделирующие исследовательские комплексы для проверки каналов связи и тестирования оборудования.

Успех конференции окрылил организаторов, и они планируют сделать ее ежегодной. Уже объявлено, что следующую DSPA намечено провести в Москве с 29 июня по 2 июля 1999 г.

Материалы конференции DSPA'98, включающие в себя комплект научно-технической документации, сборник докладов на русском и английском языках из 7 томов и каталог выставки, были подготовлены к открытию выставки. Их можно получить у ее организаторов.


Леонид Невдяев - ведущий научный сотрудник НИИТП, с ним можно связаться по адресу: leonn@glasnet.ru