Главная > Математика > Теория информации
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

Глава 3. КОДИРОВАНИЕ ПРИ НАЛИЧИИ ШТРАФОВ. ПЕРВАЯ ВАРИАЦИОННАЯ ЗАДАЧА

Количество информации, которое можно записать или передать, определяется логарифмом числа различных реализаций записи или передачи. Подсчет этого числа, однако, не всегда является простым делом. Он может осложняться наличием каких-либо ограничений, наложенных на допустимые реализации. Вместо непосредственного вычисления числа реализаций во многих случаях целесообразно вычислять максимальное значение энтропии записи, беря максимум по распределениям, совместимым с условиями, наложенными на математическое ожидание определенной случайной величины штрафов. Это максимальное значение энтропии носит название пропускной способности канала без помех. Описанная вариационная задача является первой из ряда основных вариационных задач, играющих большую роль в теории информации.

Соотношения, полученные в результате решения указанной вариационной задачи, оказываются аналогичными соотношениям статистической термодинамики (см., например, учебники Леонтовича [1, 2]). Для нахождения пропускной способности и оптимальных распределений удобно применять разработанные там методы. Эти методы основаны на систематическом использовании термодинамических потенциалов и формул. Функция штрафов при этом служит аналогом энергии. В теории подобающее место находят температура, свободная энергия и другие термодинамические понятия. Тем самым математический аппарат этого раздела теории информации смыкается с аппаратом статистической термодинамики.

Подобная аналогия будет наблюдаться и в дальнейшем для второй и третьей вариационных задач (§ 8.2, 9.4 соответственно). Следует подчеркнуть, что указанная аналогия имеет не только принципиальное, но и практическое значение. Она позволяет использовать методы и результаты статистической термодинамики.

Рассмотрение и решение ряда частных задач (пример 3 из § 3.4) на оптимальное кодирование со штрафами математически эквивалентно расчету одномерной модели Изинга, хорошо известной в статистической физике.

В конце главы приведено распространение результатов на более общее определение энтропии, справедливое для непрерывных и произвольных случайных величин.

3.1. Прямой способ вычисления информационной емкости записи для одного примера

Рассмотрим один пример записи информации, для которого подсчет информационной емкости или пропускной способности где М — число различных вариантов записи, не тривиален. Это случай неодинаковой длительности символов.

Пусть имеются сивмволов которые имеют длину соответственно. Возможно (но необязательно), что они являются комбинациями более элементарных равнодлинных букв и есть число таких букв. Тогда символы будут, в сущности, кодовыми словами наподобие тех, которые были рассмотрены ранее. Теперь, однако, заполнение буквами является фиксированным и не меняется в процессе нашего рассмотрения.

Возьмем для примера четыре телеграфных символа:

Во второй колонку приведена запись этих символов в двоичном алфавите: третьей колонке указана их длительность в этом алфавите. Конечно, символы можно называть не «словами», а «буквами» некоторого нового, более сложного алфавита.

Пусть имеется запись (или передача)

из символов. Ее длина, очевидно, равна

Зафиксируем эту суммарную длину записи и будем подсчитывать число различных реализаций записи данной длины. Отбрасывая последний символ получаем последовательность меньшей длины Каждая такая укороченная последовательность может быть осуществлена различными способами. Суммируя различные возможности, получаем уравнение

которое позволяет найти как функцию от После того, как число найдено, легко определить информацию, которая может быть передана записью длины Как и в предыдущих случаях,

максимальная информация достигается, когда все из возможностей равновероятны. При этом

— энтропия записи). Взяв предел этого отношения при получим энтропию записи, рассчитанную на единицу длины:

Как видно из этой формулы, нет надобности находить точное решение уравнения (3.1.3), а достаточно рассмотреть лишь асимптотическое поведение при больших Уравнение (3.1.3) является линейным и однородным. Как и для всякого такого уравнения, можно искать решение в виде

Подобное решение обычно оказывается возможным лишь при определенных («собственных») значениях С помощью спектра этих «собственных» значений общее решение записывается в виде

где постоянные определяются из начальных условий. Подставляя (3.1.5) в (3.1.3), получаем «характеристическое» уравнение

позволяющее найти собственные значения Функция

как легко видеть, является монотонной убывающей функцией от X на полупрямой причем юна убывает от до 0, поскольку все Следовательно, существует лишь один единственный положительный корень уравнения

Уравнения (3.1.7), (3.1.9) переходят одно в другое, если положить

Поэтому, уравнение (3.1.7) также имеет лишь один действительный корень.

При достаточно больших в сумме, стоящей в правой части (3.1.6), превалирующим будет член с максимальным значением

действительной части собственного значения Отметим это собственное значение индексом

При этом из (3.1.6) будем иметь

Поскольку функция не может быть комплексной и знакопеременной, то собственное значение обязано быть действительным: Но (3.1.10) есть единственное действительное собственное значение. Следовательно, значение и есть искомое собственное значение с максимальной действительной частью. Формула (3.1.11) принимает вид

а предел (3.1.4) оказывается равным

что дает решение поставленной задачи. Оно впервые было получено Шенноном

<< Предыдущий параграф Следующий параграф >>
Оглавление