1 2 . Представьте структурированные и неструктурированные данные и задачи. Какие из них чаще всего решаются средствами корпоративных ИС и почему?

 

Н ес т р ук т у риро в а нны е задачи имеют только качественное описание, основанное на суждениях ЛПР, количественные зависимости между основными характеристиками задачи не известны.

Структурированные задачи характеризуются существенными зависимостями, которые могут быть выражены количественно.

П о луструктурированные задачи занимают промежуточное положение и

являются "сочетающими количественные и качественные зависимости, причем малоизвестные и неопределенные стороны задачи имеют тенденцию доминировать"

1 3 . Что такое энтропия системы?

Принятой мерой неопределенности системы a является энтропия, обозначаемая H(a). При получении сообщения b энтропия системы - Нb(a). Как мы заметили, может быть, что Нb(a)< Н(a), Нb(a)> Н(a) и Нb(a)= Н(a) – все зависит от того, что за сообщение b получено. Интересно, что именно разность

Н(a)- Нb(a) оказывается важной характеристикой полученного сообщения b.

Этой важной характеристикой сообщения b о системе a является количество информации Ib(a), содержащееся в сообщении b о системе a:

 

Ib(a)= Н (a)- Нb(a)

 

Понятно, что Ib(a) может быть положительной – тогда сообщение уменьшает неопределенность, отрицательной – когда неопределенность растет и нулевой, когда сообщение не несет информации, полезной для принятия решения. В последнем случае

 

Н (a)= Нb(a):

 

т.е. неопределенность системы по получении сообщения b не изменилась и количество информации в b равно нулю.

 

Другим крайним случаем является ситуация, когда сообщение b полностью снимает неопределенность и Нb(a) = 0. В этом случае сообщение b содержит полную информацию о системе a и Ib(a)= Н (a).

Теперь для определения количества информации нам надо понять, как оценивать энтропию системы. В общем случае, энтропия системы, имеющей k возможных состояний, H(a), согласно формуле Шеннона, равна:

 

,

 

где Pi – вероятность того, что система находится в i-м состоянии.

 

 

1 4 . Что такое количество информации по К.Шеннону?

 

В общем случае, энтропия системы, имеющей k возможных состояний, H(a), согласно формуле

Шеннона, равна: