Главная > Математика > Теория информации
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

1.7. Свойства энтропии в обобщенной версии. Условная энтропия

Определенная в предыдущем параграфе энтропия (1.6.13), (1.6.16) обладает рядом свойств, аналогичных свойствам энтропии дискретной случайной величины, рассмотренным ранее. Такая аналогия является вполне естественной, если принять во внимание изложенную в § 1.6 интерпретацию энтропии (1.6.13) как асимптотического случая (при больших энтропии (1.6.1) дискретной случайной величины.

Свойство неотрицательности энтропии, о котором шла речь в теореме 1.1, для энтропии (1.6.13), (1.6.16) выполняется не всегда, а лишь при достаточно больших Условие

приводит к неотрицательности энтропии

Перейдем к теореме 1.2, в которой рассматривалось максимальное значение энтропии. В случае энтропии (1.6.13) при сравнении различных распределений Р меру нужно оставлять

фиксированной. Как указывалось, величина (1.6.17) является неотрицательной, поэтому из (1.6.16) имеем неравенство

В то же время, если положить то, очевидно, будем иметь

Это доказывает следующее утверждение, являющееся аналогом теоремы 1.2.

Теорема 1.15. Энтропия (1.6.13) принимает максимальное значение, равное когда мера Р пропорциональна мере

Этот результат является вполне естественным в свете данной в § 1.6 дискретной интерпретации формулы (1.6.13). В самом деле, пропорциональность мер означает именно равномерное распределение вероятности по дискретным точкам и теорема 1.15 становится перефразировкой теоремы 1.2. Аналогом теорем 1.2 и 1.15 для энтропии является следующее утверждение: энтропия принимает минимальное значение, равное нулю, когда распределение Р совпадает с

В соответствии с теоремой 1.15 энтропию определенную формулой (1.6.17), целесообразно интерпретировать как дефект энтропии, т. е. как нехватку этой величины до ее максимального значения.

До сих пор предполагалось, что мера Р является абсолютно непрерывной относительно меры или (что при конечных то же самое) меры Возникает вопрос, как определять энтропию или когда этой абсолютной непрерывности нет. Ответ на этот вопрос можно получить, рассматривая формулу (1.6.16) как асимптотический случай (при очень большом дискретной версии (1.6.1). Если, уплотняя точки о которых шла речь в § 1.6, вероятности некоторых таких точек, вопреки формуле (см. (1.6.4а)), оставлять конечными: (с не зависит от то в пределе мера не будет абсолютно непрерывна относительно меры Р. Дефект при в этом случае будет неограниченно возрастать. Это дает основание считать, что

если мера Р не является абсолютно непрерывной относительно (т. е. является сингулярной относительно ее). Сказанное, правда, еще не определяет энтропии при отсутствии абсолютной непрерывности, так как для нее согласно (1.6.16) получается неопределенность типа . Для ее определения требуется более детальный анализ предельного перехода связанного с уплотнением точек

Прочие свойства энтропии в дискретной версии, указанные в теоремах 1.3, 1.4, 1.6, касаются энтропии многих случайных величин и условной энтропии. При соответствующем определении последних

понятий данные свойства будут иметь место и для обобщенной версии, основанной на определении (1.6.13).

Пусть имеются две случайные величины В соответствии с (1.6.13) они имеют энтропию

В то же время, применяя формулу (1.6.13) к одной случайной величине или имеем

Здесь некоторые меры; их связь с рассматривается ниже. Условную энтропию определим как разность

т. е. так, чтобы было выполнено свойство аддитивности

Учитывая (1.6.13), (1.7.2), легко видеть, что для будем иметь формулу

где условные меры, определяемые как производные Радона-Никодима при помощи обычных соотношений

(множества произвольны). Определению (1.7.4) соответствует случайная энтропия

Данное выше определение условной энтропии можно многократно использовать при поэтапном рассмотрении цепочки случайных величин При этом соотношение (1.7.3) приведет к выполнению свойства иерархической аддитивности:

аналогичного (1.3.4).

Чтобы энтропии и другие можно было интерпретировать как меры неопределенности, необходимо, чтобы в обобщенной версии выполнялось неравенство

обычное для дискретной версии. Между тем это неравенство удается доказать не в самом общем случае, как это можно видеть из последующей формулы (1.7.6).

Теорема 1.16. Если выполнено условие

то неравенство выполняется.

Доказательство. Для разности будем иметь

Но для любых вероятностных мер справедливо неравенство

которое является обобщением неравенства (1.3.7) и может быть доказано тем же самым способом. Применяя (1.7.7) к (1.7.6) при получаем, что первый член в правой части (1.7.6) неотрицателен. Второй член можно записать так:

Отсюда видна его неотрицательность в силу условия (1.7.5). Следовательно, разность (1.7.6) неотрицательна. Доказательство закончено.

Неравенство (1.7.5) естественным образом выполняется, когда интерпретируется согласно сказанному в § 1.6 как число дискретных точек в А, имеющих ненулевую вероятность. Тогда интерпретируется как число таких точек на интервале как число точек на интервале В прямоугольнике естественно, остается не более разрешенных точек.

Если не придерживаться указанной интерпретации, то условие (1.7.5) придется постулировать независимо. Особенно удобно принимать условие мультипликативности

которое мы будем в дальнейшем постулировать.

Итак, Энтропия в обобщенной версии имеет обычные свойства, т. е. не только обладает свойством иерархической аддитивности, но и удовлетворяет обычным неравенствам, если выполняется условие мультипликативности (1.7.8). Когда имеется несколько случайных величин удобно выбирать меру удовлетворяющую условию полной мультипликативности

которое мы понимаем как условие согласования вспомогательных мер. Согласно (1.7.9) мера комбинированной случайной величины распадается на произведение «элементарных» мер Тогда в соответствии с приведенными выше формулами будем иметь

Если случайные величины являются статистически независимыми, то (с вероятностью единица). Следовательно,

и из (1.7.4а) получаем свойство аддитивности

совпадающее с (1.2.9).

Перейдем к рассмотрению нормированных мер

где

и соответствующих им энтропий (1.6.17). Для них справедливы соотношения

типа (1.6.16). Полагая

и принимая условие мультипликативности

определяем условную энтропию естественной формулой

так что

При этом выполняется свойство аддитивности

Учитывая (1.7.2), приведем неравенство (1.7.46) к виду

Используя (1.7.14), при (1.7.15), (1.7.16), отсюда получаем

Вследствие (1.7.18) это неравенство можно записать

Сравнивая его с видно, что знак для энтропии заменился на обратный Это является убедительным свидетельством тому, что энтропии нельзя трактовать как меру неопределенности, как это делается с энтропиями (1.6.1) или (1.6.13).

В случае многих случайных величин целесообразно принимать условия типа (1.7.15), (1.7.16) для многих величин и пользоваться свойством иерархической аддитивности

Это свойство аналогично (1.3.4) и (1.7.4а).

<< Предыдущий параграф Следующий параграф >>
Оглавление