4. Модуляция и детектирование сигнала
4.1 Амплитудная модуляция и детектирование ………………..........................................….21
4.2 Частотная модуляция и детектирование ……………............................................……..….21
4.3 Фазовая модуляция и детектирование ……………….….........................................…..…22
5. Коды и кодирование в измерении
5.1 Оптимальные или эффективные коды ……...........................................…….………….....23
5.2 Корректирующие коды ………………………...………….........................................….…26
5.2.1 Обнаружение одиночной ошибки ……...…………...........................................…...26
5.2.2 Обнаружение и исправление одиночной ошибки ….........................................…27
5.2.3 Методика построения корректирующего кода ............................................……..…28
6. Теория передачи информации
6.1 Передача информации по каналу связи без помех при различных видах
кодирования ……………………….…................................................................................……...30
6.2 Передача информации по каналу связи с помехами при различных видах
кодирования …………………….…………...................................................................................30
7. Методы повышения точности измерительных приборов и преобразователей
7.1 Классификация методов коррекции погрешностей ……….................................................34
7.2 Структурные методы автоматической коррекции погрешностей измерительных
приборов и преобразователей.....................................................................................................34
Литература ………..……………………….……………………….........................................……35
Введение
Курс "Теоретические основы измерительных и информационных технологий" рассматривает способы и средства получения, передачи, обработки и целенаправленного использования количественной и качественной информации о свойствах и характеристиках физических объектов с целью их изучения и управления.
При изучении данного курса необходимо последовательно рассмотреть следующие разделы:
– основные понятия информации и информационной теории измерений;
– энтропия и количество информации взаимосвязанных источников сигналов;
– теория передачи информации;
– каналы связи и их характеристики;
– передачи информации по каналу связи без помех и при их наличии;
Для более полного усвоения материала, а так же выполнения курсовой работы, необходимо выполнить контрольные задания, прилагаемые к каждому разделу, опираясь при этом на примеры выполненных расчётов, приведённых в методических указаниях.
1. Основные понятия информации и информационной
теории измерения.
При изучении этого раздела необходимо усвоить следующие определения:
– понятие информации – это сообщения, сведения, знания, которые могут характеризоваться различными аспектами: объемом, новизной, содержательностью, полезностью и т. д.;
– измерительная информация – количественные сведения о свойстве объекта, получаемые опытным путем с помощью измерительных средств. Она может быть представлена в виде числа, кода, диаграммы и т. д.;
– количество измерительной информации – численная мера степени уменьшения неопределенности количественной оценки свойства объекта, получаемой путем измерения;
– математические меры информации – логарифмическая и вероятностная.
1.1 Логарифмическая мера.
При измерении величина может принимать
значений. Чем больше
, тем труднее определить ее истинное (действительное) значение. Следовательно, исходная неопределенность возрастает с увеличением
. Исходная неопределенность до измерения определяется логарифмической функцией от
, то есть:

Неопределенность после измерения уменьшается и определяется из выражения:
,
где
– число возможных значений величины после измерения, характеризующее его погрешность.
В таком случае количество информации, полученной в результате измерения, определится из выражения:
(1.1)
Единицы неопределенности определяются выбором основания логарифма. При
– двоичная единица информации или бит, которую мы в дальнейшем будем использовать. В связи с этим при дальнейших расчетах основание логарифма будем опускать.
1.2 Вероятностная мера.
Пусть по каналу связи передается сообщение, состоящее из
символов, при этом вероятность появления
символа равна
. В таком случае количество информации, полученной в результате приема этого сообщения, будет равно:
(1.2)
Эта мера неопределенности получила название энтропия, которую в дальнейшем будем обозначать
, то есть
(1.3)
Исходя из этого, энтропия – это количество информации, которое необходимо для устранения степени неопределенности.
Свойства энтропии как математической меры неопределенности:
– энтропия является непрерывной положительной функцией аргументов
;
– при заданном числе возможных исходов
энтропия принимает максимальное значение, когда все они равновероятны, то есть:

Задача 1: Шахматная фигура на доске является системой с 64 равновозможными состояниями, вероятность каждого из которых равна
. Энтропия такой системы:
бит.
Найти энтропию и количество информации для сообщений:
– фигура стоит на одной из горизонтальных линий. Так как каждая клетка находится на горизонтальных линиях, то новой информации нет;
– фигура стоит на черном поле,
бит. Такое сообщение принесло информацию
бит;
– фигура стоит на одной из угловых клеток,
бит.
бит;
– фигура находится на клетке
.
, так как положение фигуры достоверно,
бит.
1.3 Исходная энтропия подлежащей измерению непрерывной величины.
Определим энтропию непрерывной величины, подлежащей измерению с погрешностью
. При этом диапазон значений непрерывной величины
, разобьем на
интервалов, то есть
.
Если задана плотность вероятности значений величины
, то энтропию можно найти из выражения:
(1.4)
Слагаемое
– называется дифференциальной энтропией, которая зависит только от вероятностей значений измеряемой величины.
Для равномерного закона распределения значений непрерывной величины:
(1.5)
Полная энтропия при заданной погрешности
примет вид:
(1.6)
Для нормального закона распределения значений непрерывной величины:
,
где
– среднее квадратическое отклонение значений измеряемой величины
.
Полная энтропия с учетом погрешности равна:
(1.7)
1.4 Остаточная энтропия значений величины после измерения.
Исходная неопределенность знания о значении величины не может быть нижена до нуля в результате измерения, так как имеется погрешность. При этом область неопределенности сужается от
до интервала
, расположенного симметрично относительно полученного результата
. (Рис. 1.1)
|
Рисунок 1.1. Области неопределённости.
Остаточная дифференциальная энтропия непрерывной величины будет иметь вид:
, (1.8)
где
– измеряемая величина;
– результат измерения.
Полная остаточная энтропия после измерения определяется разностью:
(1.9)
Для нормального закона распределения дифференциальная остаточная энтропия:
, (1.10)
где
– среднеквадратическое отклонение погрешности.
Когда погрешность распределена по равномерному закону в интервале
до
, дифференциальная остаточная энтропия равна:
(1.11)
Задача 2: Амперметр, класс точности которого равен 1, имеет шкалу от 1 до 5 А. Допустимая погрешность
А.
Найти энтропию показания этого прибора при условии, что любое показание в диапазоне равновероятно.
Решение: Зона допуска измеряемого сигнала составляет
А.. Энтропия показания этого прибора:
бит.
Задача 3: Амперметр с верхним пределом измерения 100 А имеет цену деления 2 А/дел. Рабочая часть шкалы начинается с 20 А. Практически отсчет показаний такого прибора можно производить с точностью до 1 А.
Найти информационную способность прибора
Решение: Определяем число возможных комбинаций
. Определяем информационную способность прибора:
бит.
1.5 Энтропия и количество информации взаимосвязанных объектов.
Взаимосвязь может определяться различными факторами:
– источник коррелированного сигнала. В этом случае вырабатываемый сигнал содержит взаимосвязанные символы, которые будут характеризоваться условной вероятностью
того, что после появления символа
будет следовать символ
;
– два параллельно работающих взаимосвязанных источника. Здесь вырабатываемые сигналы содержат также взаимосвязанные символы, но принадлежащие различным источникам;
– источник и приемник, связанные каналом с помехами. Наличие помех не дает полной уверенности в правильности приема символов. Можно лишь с некоторой вероятностью
утверждать, что принятый символ
есть переданный символ
.
Рассмотрим соотношения, определяющие энтропии взаимосвязанных объектов.
Для источника квантованных сообщений с
символами, где
символов имеют вероятности появления
, взаимосвязь символов задается условной вероятностью
, то есть вероятностью того, что после появления символа
появится символ
. В этом случае энтропию для всех символов по отношению к символу
можно определить как:

Общая условная энтропия может быть определена как математическое ожидание энтропии
:
(1.12)
Задача 4: Сигнал формируется в виде двоичного кода с вероятностями появления символов 1 и 0, равными соответственно 0,6 и 0,4. Появление любого из символов взаимосвязаны условными вероятностями:
– вероятность того, что после 0 опять будет 0;
– вероятность того, что после 0 будет 1;
– вероятность того, что после 1 опять будет 1;
– вероятность того, что после 1 будет 0.
Применяя формулу (1.12) и учитывая, что
и
, получим:
бит.
Для двух параллельно работающих взаимосвязанных источников, вырабатывающих дискретные сигналы
и
будут иметь место соотношения:
(1.13)
(1.14)
(1.15)
По аналогии можно записать соотношения для дифференциальной совместной энтропии:
(1.16)
(1.17)
Энтропия квантованного сообщения с нормальным законом распределения может быть определена:
, где
– шаг квантования
, тогда
(1.18)
Для случая взаимосвязанных сигналов, имеющих значения
и
, имеющих нормальный закон распределения:
(1.19)
, (1.20)
где
– коэффициент корреляции
По аналогии энтропия квантованного сигнала:
(1.21)
(1.22)
Но так как
, то используя формулы (1.21) и (1.22) будем иметь:
(1.23)
Задача 5: Система стабилизации платформы имеет два дискретных датчика А и В, измеряющих углы
и
во взаимно перпендикулярных плоскостях (Рис. 1.2)

|
|
|
|
Сигналы
и
с датчиков А и В поступают на вычислительное устройство (ВУ). Датчики имеют число уровней квантования
и
.
Требуется определить:
–

|
совместную энтропию сигналов
и
;
– энтропию источников (датчиков А и В) при их независимой работе;
|
– условные энтропии сигналов
и
при совместной работе датчиков;
– количество информации, поступающей в ВУ за время работы Т.
Система характеризуется данными:
;
;
сек;
сек.
Совместные вероятности
заданы в табл. 1.1.
Таблица 1.1. Совместные вероятности
|
|
|
|
|
|
| 0,12 | 0,10 | 0,08 | 0,05 | 0,03 |
| 0,02 | 0,04 | 0,12 | 0,04 | 0,02 |
| 0,03 | 0,05 | 0,08 | 0,10 | 0,12 |
Для определения совместной энтропии
воспользуемся формулой (1.13):

Используя таблицу вероятностей будем иметь:


дв. ед.
Энтропии
и
источников при их независимой работе определяются по общей формуле:
.
Для вычисления вероятностей появления сигналов
и
воспользуемся соотношениями:
, 
В таком случае для получения значений вероятностей сигнала
необходимо просуммировать строки таблицы 1.1, а для
– просуммировать столбцы таблицы 1.1. Результаты расчетов приведены в табл. 1.2 и 1.3.
Таблица 1.2. Вероятности сигнала Х. Таблица 1.3. Вероятности сигнала У.
|
|
|
|
|
|
|
|
|
| |
| 0,38 | 0,24 | 0,38 |
| 0,17 | 0,19 | 0,28 | 0,19 | 0,17 |
Расчет энтропии дает следующие результаты:
дв. ед.
дв. ед.
Условные энтропии определим по формулам:
дв. ед.
дв. ед.
Легко увидеть, что энтропия источника А при работе В и энтропия источника В при работе А меньше энтропий этих источников, работающих независимо, на величину:
дв. ед.
дв. ед.
Количество информации, поступающее в вычислительное устройство за все время работы, определим по формуле:
дв. ед.
При независимой работе источников А и В в вычислительное устройство поступило бы количество информации:
дв. ед.
Для более полного усвоения данного раздела необходимо выполнить контрольное задание №1.
Контрольное задание № 1:
Задача 1: В системе регулирования частоты вращения электродвигателя задающее воздействие
в виде электрического напряжения имеет
независимых дискретных значений с шагом квантования
, вероятности появления которых распределены по двустороннему экспоненциальному закону с функцией плотности
. Данные для
,
и
взять из табл. 1.4.
Таблица 1.4. Исходные данные.
| Вариант | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
Задающее воздействие , (В)
| 1,6 | 1,4 | 1,2 | 1,6 | 1,4 | 1,2 | 2,4 | 2,1 | 1,8 | 1,5 |
Шаг квантования , (В)
| 0,2 | 0,2 | 0,2 | 0,2 | 0,2 | 0,2 | 0,3 | 0,3 | 0,3 | 0,3 |
Коэффициент
| 0,5 | 0,5 | 0,5 | 1 | 1 | 1 | 0,5 | 0,5 | 0,5 | 0,5 |
Число уровней
| 17 | 15 | 13 | 17 | 15 | 13 | 17 | 15 | 13 | 11 |
Задача 2: Амперметр имеет рабочую шкалу от
до
А. Допустимая погрешность
. По прибору получен результат измерения 4,2 А.
Найти дифференциальную энтропию и количество полученной информации, полагая закон распределения погрешности нормальным, имеющим среднее квадратическое отклонение
, равное
допустимой погрешности. Данные приведены в табл. 1.5.
Таблица 1.5. Исходные данные.
| Вариант | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
Диапазон , (А)
| 1-5 | 0-5 | 1-6 | 1-7 | 0-6 | 0-7 | 1-8 | 1-9 | 1-10 | 0-10 |
Дополнительная погрешность , (А)
| 0,06 | 0,06 | 0,06 | 0,09 | 0,06 | 0,06 | 0,06 | 0,09 | 0,09 | 0,09 |
Задача 3: Устройство вырабатывает случайный сигнал
с одномерным нормальным распределением и корреляционной функцией вида
. Данные сигнала:
– амплитудное значение (В);
– шаг квантования;
– наивысшая частота в спектре сигнала. Данные приведены в табл. 1.6.
Определить энтропию сигнала при наличии и отсутствии корреляции.
Таблица 1.6. Исходные данные.
| Вариант | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
, (В)
| 10 | 12 | 10 | 8 | 6 | 12 | 5 | 12 | 8 | 10 |
, (В)
| 0,6 | 0,6 | 0,5 | 0,4 | 0,2 | 0,4 | 0,2 | 0,3 | 0,2 | 0,25 |
, (Гц)
| 25 | 25 | 15 | 25 | 25 | 20 | 25 | 25 | 10 | 25 |
, (Гц)
| 50 | 25 | 30 | 25 | 50 | 40 | 50 | 25 | 20 | 50 |
При решении данной задачи необходимо ознакомиться с характеристиками случайных сигналов, в частности, с автокорреляционной функцией и коэффициентом корреляции. Необходимо помнить, что в данном случае коррелируют предыдущий сигнал с последующим. Кроме того, необходимо ознакомиться с дискретизацией непрерывных сигналов, в частности, с теоремой отсчетов Котельникова.

, (А)