4. Модуляция и детектирование сигнала
4.1 Амплитудная модуляция и детектирование ………………..........................................….21
4.2 Частотная модуляция и детектирование ……………............................................……..….21
4.3 Фазовая модуляция и детектирование ……………….….........................................…..…22
5. Коды и кодирование в измерении
5.1 Оптимальные или эффективные коды ……...........................................…….………….....23
5.2 Корректирующие коды ………………………...………….........................................….…26
5.2.1 Обнаружение одиночной ошибки ……...…………...........................................…...26
5.2.2 Обнаружение и исправление одиночной ошибки ….........................................…27
5.2.3 Методика построения корректирующего кода ............................................……..…28
6. Теория передачи информации
6.1 Передача информации по каналу связи без помех при различных видах
кодирования ……………………….…................................................................................……...30
6.2 Передача информации по каналу связи с помехами при различных видах
кодирования …………………….…………...................................................................................30
7. Методы повышения точности измерительных приборов и преобразователей
7.1 Классификация методов коррекции погрешностей ……….................................................34
7.2 Структурные методы автоматической коррекции погрешностей измерительных
приборов и преобразователей.....................................................................................................34
Литература ………..……………………….……………………….........................................……35
Введение
Курс "Теоретические основы измерительных и информационных технологий" рассматривает способы и средства получения, передачи, обработки и целенаправленного использования количественной и качественной информации о свойствах и характеристиках физических объектов с целью их изучения и управления.
При изучении данного курса необходимо последовательно рассмотреть следующие разделы:
– основные понятия информации и информационной теории измерений;
– энтропия и количество информации взаимосвязанных источников сигналов;
– теория передачи информации;
– каналы связи и их характеристики;
– передачи информации по каналу связи без помех и при их наличии;
Для более полного усвоения материала, а так же выполнения курсовой работы, необходимо выполнить контрольные задания, прилагаемые к каждому разделу, опираясь при этом на примеры выполненных расчётов, приведённых в методических указаниях.
1. Основные понятия информации и информационной
теории измерения.
При изучении этого раздела необходимо усвоить следующие определения:
– понятие информации – это сообщения, сведения, знания, которые могут характеризоваться различными аспектами: объемом, новизной, содержательностью, полезностью и т. д.;
– измерительная информация – количественные сведения о свойстве объекта, получаемые опытным путем с помощью измерительных средств. Она может быть представлена в виде числа, кода, диаграммы и т. д.;
– количество измерительной информации – численная мера степени уменьшения неопределенности количественной оценки свойства объекта, получаемой путем измерения;
– математические меры информации – логарифмическая и вероятностная.
1.1 Логарифмическая мера.
При измерении величина может принимать значений. Чем больше
, тем труднее определить ее истинное (действительное) значение. Следовательно, исходная неопределенность возрастает с увеличением
. Исходная неопределенность до измерения определяется логарифмической функцией от
, то есть:
Неопределенность после измерения уменьшается и определяется из выражения:
,
где – число возможных значений величины после измерения, характеризующее его погрешность.
В таком случае количество информации, полученной в результате измерения, определится из выражения:
(1.1)
Единицы неопределенности определяются выбором основания логарифма. При – двоичная единица информации или бит, которую мы в дальнейшем будем использовать. В связи с этим при дальнейших расчетах основание логарифма будем опускать.
1.2 Вероятностная мера.
Пусть по каналу связи передается сообщение, состоящее из символов, при этом вероятность появления
символа равна
. В таком случае количество информации, полученной в результате приема этого сообщения, будет равно:
(1.2)
Эта мера неопределенности получила название энтропия, которую в дальнейшем будем обозначать , то есть
(1.3)
Исходя из этого, энтропия – это количество информации, которое необходимо для устранения степени неопределенности.
Свойства энтропии как математической меры неопределенности:
– энтропия является непрерывной положительной функцией аргументов ;
– при заданном числе возможных исходов энтропия принимает максимальное значение, когда все они равновероятны, то есть:
Задача 1: Шахматная фигура на доске является системой с 64 равновозможными состояниями, вероятность каждого из которых равна . Энтропия такой системы:
бит.
Найти энтропию и количество информации для сообщений:
– фигура стоит на одной из горизонтальных линий. Так как каждая клетка находится на горизонтальных линиях, то новой информации нет;
– фигура стоит на черном поле, бит. Такое сообщение принесло информацию
бит;
– фигура стоит на одной из угловых клеток, бит.
бит;
– фигура находится на клетке .
, так как положение фигуры достоверно,
бит.
1.3 Исходная энтропия подлежащей измерению непрерывной величины.
Определим энтропию непрерывной величины, подлежащей измерению с погрешностью . При этом диапазон значений непрерывной величины
, разобьем на
интервалов, то есть
.
Если задана плотность вероятности значений величины , то энтропию можно найти из выражения:
(1.4)
Слагаемое – называется дифференциальной энтропией, которая зависит только от вероятностей значений измеряемой величины.
Для равномерного закона распределения значений непрерывной величины:
(1.5)
Полная энтропия при заданной погрешности примет вид:
(1.6)
Для нормального закона распределения значений непрерывной величины:
,
где – среднее квадратическое отклонение значений измеряемой величины
.
Полная энтропия с учетом погрешности равна:
(1.7)
1.4 Остаточная энтропия значений величины после измерения.
Исходная неопределенность знания о значении величины не может быть нижена до нуля в результате измерения, так как имеется погрешность. При этом область неопределенности сужается от до интервала
, расположенного симметрично относительно полученного результата
. (Рис. 1.1)
![]() |
Рисунок 1.1. Области неопределённости.
Остаточная дифференциальная энтропия непрерывной величины будет иметь вид:
, (1.8)
где – измеряемая величина;
– результат измерения.
Полная остаточная энтропия после измерения определяется разностью:
(1.9)
Для нормального закона распределения дифференциальная остаточная энтропия:
, (1.10)
где – среднеквадратическое отклонение погрешности.
Когда погрешность распределена по равномерному закону в интервале до
, дифференциальная остаточная энтропия равна:
(1.11)
Задача 2: Амперметр, класс точности которого равен 1, имеет шкалу от 1 до 5 А. Допустимая погрешность А.
Найти энтропию показания этого прибора при условии, что любое показание в диапазоне равновероятно.
Решение: Зона допуска измеряемого сигнала составляет А.. Энтропия показания этого прибора:
бит.
Задача 3: Амперметр с верхним пределом измерения 100 А имеет цену деления 2 А/дел. Рабочая часть шкалы начинается с 20 А. Практически отсчет показаний такого прибора можно производить с точностью до 1 А.
Найти информационную способность прибора
Решение: Определяем число возможных комбинаций . Определяем информационную способность прибора:
бит.
1.5 Энтропия и количество информации взаимосвязанных объектов.
Взаимосвязь может определяться различными факторами:
– источник коррелированного сигнала. В этом случае вырабатываемый сигнал содержит взаимосвязанные символы, которые будут характеризоваться условной вероятностью того, что после появления символа
будет следовать символ
;
– два параллельно работающих взаимосвязанных источника. Здесь вырабатываемые сигналы содержат также взаимосвязанные символы, но принадлежащие различным источникам;
– источник и приемник, связанные каналом с помехами. Наличие помех не дает полной уверенности в правильности приема символов. Можно лишь с некоторой вероятностью утверждать, что принятый символ
есть переданный символ
.
Рассмотрим соотношения, определяющие энтропии взаимосвязанных объектов.
Для источника квантованных сообщений с символами, где
символов имеют вероятности появления
, взаимосвязь символов задается условной вероятностью
, то есть вероятностью того, что после появления символа
появится символ
. В этом случае энтропию для всех символов по отношению к символу
можно определить как:
Общая условная энтропия может быть определена как математическое ожидание энтропии :
(1.12)
Задача 4: Сигнал формируется в виде двоичного кода с вероятностями появления символов 1 и 0, равными соответственно 0,6 и 0,4. Появление любого из символов взаимосвязаны условными вероятностями:
– вероятность того, что после 0 опять будет 0;
– вероятность того, что после 0 будет 1;
– вероятность того, что после 1 опять будет 1;
– вероятность того, что после 1 будет 0.
Применяя формулу (1.12) и учитывая, что и
, получим:
бит.
Для двух параллельно работающих взаимосвязанных источников, вырабатывающих дискретные сигналы и
будут иметь место соотношения:
(1.13)
(1.14)
(1.15)
По аналогии можно записать соотношения для дифференциальной совместной энтропии:
(1.16)
(1.17)
Энтропия квантованного сообщения с нормальным законом распределения может быть определена:
, где
– шаг квантования
, тогда
(1.18)
Для случая взаимосвязанных сигналов, имеющих значения и
, имеющих нормальный закон распределения:
(1.19)
, (1.20)
где – коэффициент корреляции
По аналогии энтропия квантованного сигнала:
(1.21)
(1.22)
Но так как , то используя формулы (1.21) и (1.22) будем иметь:
(1.23)
Задача 5: Система стабилизации платформы имеет два дискретных датчика А и В, измеряющих углы и
во взаимно перпендикулярных плоскостях (Рис. 1.2)
|
|
|
|
Сигналы
и
с датчиков А и В поступают на вычислительное устройство (ВУ). Датчики имеют число уровней квантования
и
.
Требуется определить:
–
|
совместную энтропию сигналов и
;
– энтропию источников (датчиков А и В) при их независимой работе;
|
– условные энтропии сигналов и
при совместной работе датчиков;
– количество информации, поступающей в ВУ за время работы Т.
Система характеризуется данными:
;
;
сек;
сек.
Совместные вероятности заданы в табл. 1.1.
Таблица 1.1. Совместные вероятности
![]() | ![]() | ![]() | ![]() | ![]() | ![]() |
![]() | 0,12 | 0,10 | 0,08 | 0,05 | 0,03 |
![]() | 0,02 | 0,04 | 0,12 | 0,04 | 0,02 |
![]() | 0,03 | 0,05 | 0,08 | 0,10 | 0,12 |
Для определения совместной энтропии воспользуемся формулой (1.13):
Используя таблицу вероятностей будем иметь:
дв. ед.
Энтропии и
источников при их независимой работе определяются по общей формуле:
.
Для вычисления вероятностей появления сигналов и
воспользуемся соотношениями:
,
В таком случае для получения значений вероятностей сигнала необходимо просуммировать строки таблицы 1.1, а для
– просуммировать столбцы таблицы 1.1. Результаты расчетов приведены в табл. 1.2 и 1.3.
Таблица 1.2. Вероятности сигнала Х. Таблица 1.3. Вероятности сигнала У.
![]() | ![]() | ![]() | ![]() | ![]() | ![]() | ![]() | ![]() | ![]() | ![]() | |
![]() | 0,38 | 0,24 | 0,38 | ![]() | 0,17 | 0,19 | 0,28 | 0,19 | 0,17 |
Расчет энтропии дает следующие результаты:
дв. ед.
дв. ед.
Условные энтропии определим по формулам:
дв. ед.
дв. ед.
Легко увидеть, что энтропия источника А при работе В и энтропия источника В при работе А меньше энтропий этих источников, работающих независимо, на величину:
дв. ед.
дв. ед.
Количество информации, поступающее в вычислительное устройство за все время работы, определим по формуле:
дв. ед.
При независимой работе источников А и В в вычислительное устройство поступило бы количество информации:
дв. ед.
Для более полного усвоения данного раздела необходимо выполнить контрольное задание №1.
Контрольное задание № 1:
Задача 1: В системе регулирования частоты вращения электродвигателя задающее воздействие в виде электрического напряжения имеет
независимых дискретных значений с шагом квантования
, вероятности появления которых распределены по двустороннему экспоненциальному закону с функцией плотности
. Данные для
,
и
взять из табл. 1.4.
Таблица 1.4. Исходные данные.
Вариант | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
Задающее воздействие ![]() | 1,6 | 1,4 | 1,2 | 1,6 | 1,4 | 1,2 | 2,4 | 2,1 | 1,8 | 1,5 |
Шаг квантования ![]() | 0,2 | 0,2 | 0,2 | 0,2 | 0,2 | 0,2 | 0,3 | 0,3 | 0,3 | 0,3 |
Коэффициент ![]() | 0,5 | 0,5 | 0,5 | 1 | 1 | 1 | 0,5 | 0,5 | 0,5 | 0,5 |
Число уровней ![]() | 17 | 15 | 13 | 17 | 15 | 13 | 17 | 15 | 13 | 11 |
Задача 2: Амперметр имеет рабочую шкалу от до
А. Допустимая погрешность
. По прибору получен результат измерения 4,2 А.
Найти дифференциальную энтропию и количество полученной информации, полагая закон распределения погрешности нормальным, имеющим среднее квадратическое отклонение , равное
допустимой погрешности. Данные приведены в табл. 1.5.
Таблица 1.5. Исходные данные.
Вариант | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
Диапазон ![]() | 1-5 | 0-5 | 1-6 | 1-7 | 0-6 | 0-7 | 1-8 | 1-9 | 1-10 | 0-10 |
Дополнительная погрешность ![]() | 0,06 | 0,06 | 0,06 | 0,09 | 0,06 | 0,06 | 0,06 | 0,09 | 0,09 | 0,09 |
Задача 3: Устройство вырабатывает случайный сигнал с одномерным нормальным распределением и корреляционной функцией вида
. Данные сигнала:
– амплитудное значение (В);
– шаг квантования;
– наивысшая частота в спектре сигнала. Данные приведены в табл. 1.6.
Определить энтропию сигнала при наличии и отсутствии корреляции.
Таблица 1.6. Исходные данные.
Вариант | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
![]() | 10 | 12 | 10 | 8 | 6 | 12 | 5 | 12 | 8 | 10 |
![]() | 0,6 | 0,6 | 0,5 | 0,4 | 0,2 | 0,4 | 0,2 | 0,3 | 0,2 | 0,25 |
![]() | 25 | 25 | 15 | 25 | 25 | 20 | 25 | 25 | 10 | 25 |
![]() | 50 | 25 | 30 | 25 | 50 | 40 | 50 | 25 | 20 | 50 |
При решении данной задачи необходимо ознакомиться с характеристиками случайных сигналов, в частности, с автокорреляционной функцией и коэффициентом корреляции. Необходимо помнить, что в данном случае коррелируют предыдущий сигнал с последующим. Кроме того, необходимо ознакомиться с дискретизацией непрерывных сигналов, в частности, с теоремой отсчетов Котельникова.