Здесь и – собственная энтропия источников x и y соответственно.

 

– условная энтропия источника относительно источника . Она показывает, какую энтропию имеют сообщения , когда уже известно сообщение .

Если источники независимы, то . В этом случае

 

Если источники частично зависимы, то

Если источники полностью зависимы ( и содержат одну и ту же информацию), то и

 

 

10.7. Взаимная информация источников сообщений

 

На рис. 10.3 показана (условно) собственная энтропия и , условные энтропии и и совместная энтропия . Из этого рисунка, в частности, следует соотношение (10.18) и (10.19).

Рисунок 10.3. Графическое представление собственных условных, совместных и взаимной энтропий

Заштрихованная часть рисунка называется взаимной информацией . Она показывает, какое в среднем количество информации содержит сообщение о сообщении (или наоборот). Как следует из рис. 10.3:

 

Рисунок 10.4. Графическое представление влияния потерь при передаче и приеме информации

 

Если сообщения и полностью независимы, то взаимная информация отсутствует и .

Если сообщения и полностью зависимы ( и содержат одну и ту же информацию), то .

Понятие взаимной информации очень широко используется в теории передачи информации. Требования к взаимной информации различны в зависимости от того, с какой информацией мы имеем дело. Например, если и – это сообщения, публикуемые различными газетами, то для получения возможно большей суммарной (совместной) информации взаимная (т.е. одинаковая в данном случае) информация должна быть минимальной. Если же и – это сообщения на входе и на выходе канала связи с помехами, то для получения возможно большей информации ее получателем необходимо, чтобы взаимная информация была наибольшей. Тогда условная энтропия – это потери информации в канале связи (надежность канала).

– энтропия шума (помех), равная , т.е. .

10.8. Скорость передачи и пропускная способность канала связи

 

В дискретной системе связи при отсутствии помех информация на выходе канала связи (канала, передающего информацию) полностью совпадает с информацией на его входе, поэтому скорость передачи информации численно равна производительности источника сообщений:

 

 

При наличии помех часть информации оказывается меньшей, чем производительность источника. Одновременно в сообщении на выходе канала добавляется информация о помехах (рис. 10.4).

Рисунок 10.4. Влияние помех при передаче информации

 

Поэтому при наличии помех необходимо учитывать на выходе канала не всю информацию, даваемую источником, а только взаимную информацию.

 

 

На основании формулы (10.21) имеем:

 

 

или

 

 

где – производительность источника,

– «ненадежность» канала (потери) в ед. времени,

– энтропия выходного сообщения в ед. времени,

– энтропия помех (шума) в ед. времени.

Пропускной способностью канала связи (канала передачи информации) называется максимально возможная скорость передачи информации по каналу:

 

 

Для достижения максимума учитываются все возможные источники на входе и все возможные способы кодирования.

Таким образом, пропускная способность канала связи равна максимальной производительности источника на входе канала, полностью согласованного с характеристиками этого канала, за вычетом потерь информации в канале из-за помех.

В канале без помех , т.к . При использовании равномерного кода с основанием , состоящего из элементов, длительностью , в канале без помех:

 

– длительность элемента.

При бит/с.

Для эффективного использования пропускной способности канала необходимо его согласование с источником информации на входе. Такое согласование возможно как для каналов без помех, так и для каналов связи с помехами на основании двух теорем, доказанных К.Шенноном.

 

Первая теорема (для канала связи без помех):

Если источник сообщений имеет энтропию (бит на символ), а канал связи – пропускную способность (бит в секунду), то можно закодировать сообщение таким образом, чтобы передавать информацию по каналу со средней скоростью, сколь угодно близкой к величине , но не превзойти ее.

К.Шеннон предложил и метод такого кодирования, который получил название статического или оптимального кодирования. В дальнейшем идея такого кодирования была развита в работах Фано и Хаффмана и в настоящее время широко используется на практике для «сжатия сообщений».

 

Вторая теорема (для каналов связи с помехами):

Если пропускная способность канала равна , а производительность источника , то путем соответствующего кодирования можно передавать информацию по каналу связи со скоростью, сколь угодно близкой к , и с вероятностью ошибки, сколь угодно близкой к нулю. При такая передача невозможна.

К сожалению, теорема К.Шеннона для канала связи с шумом (помехами) указывает только на возможность такого кодирования, но не указывает способа построения соответствующего кода. Однако известно, что при приближению к пределу, устанавливаемому Теоремой Шеннона, резко возрастает время запаздывания сигнала в устройствах кодирования и декодирования из-за увеличения длины кодового слова . При этом вероятность эквивалентной ошибки на выходе канала стремится к величине

 

 

Очевидно, что , когда и , и, следовательно, имеет место «обмен» вероятности ошибки на скорость и задержку передачи.

 

 

10.9. Статическое кодирование дискретных сообщений

 

Кодирование по методу Шеннона-Фано-Хаффмана называется оптимальным, т.к. при этом повышается производительность дискретного источника, и статическим, т.к для реализации оптимального кодирования используются априорные вероятности появления на выходе источника каждого элемента сообщения (учитывается статистика сообщений).

Производительность и избыточность дискретного источника согласно определениям равны, соответственно:

 

 

откуда получаем:

 

 

Из этой формулы видно, что для увеличения производительности нужно уменьшить избыточность и среднюю длительность сообщений .

Известно, что , если априорные вероятности различных элементов сообщения различны ( при равной вероятности этих элементов). Но при неравной вероятности сообщений нужно применить оптимальное (статическое) кодирование, при котором уменьшается средняя длительность сообщений.

Идея такого кодирования заключается в том, что, применяя неравномерный неприводимый код, наиболее часто встречающиеся сообщения (буквы или слова) кодируются короткими комбинациями этого кода, а редко встречающиеся сообщения кодируются более длительными комбинациями.

Рассмотрим принципы оптимального кодирования на примере.