Количество информации в теории информации – это количество информации в одном случайном объекте относительно другого.
Пусть
и
– случайные величины, заданные на соответствующих множествах
и
. Тогда количество информации
относительно
есть разность априорной и апостериорной энтропий:
,
где
— энтропия, а
![{\displaystyle H(x|y)=-\sum _{y\in Y}p(y)\sum _{x\in X}p(x|y)\log _{2}p(x|y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/17837e589a4cfe15fddee01fcd65e365a5435415)
— условная энтропия, в теории передачи информации она характеризует шум в канале.
Свойства энтропии
Для энтропии справедливы свойства:
,
где
количество элементов множества
.
, если один из элементов множества реализуется с вероятностью 1, а остальные, соответственно, 0, в силу того, что
и
.
Максимум значения энтропии
достигается, когда все
, т.е. все исходы равновероятны.
Для условной энтропии справедливы свойства:
,
При этом,
, если отображение
в
однозначное, т.е.
.
Максимум значения условной энтропии
достигается, когда
и
- независимые случайные величины.
Свойства количества информации
Для количества информации справедливы свойства:
как следствие теоремы Байеса.
![{\displaystyle I(x,y)\geqslant 0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e5e88b8bd3287b4ee70a7eaa17d69f729827bfb6)
если
и
– независимые случайные величины.
![{\displaystyle I(x,x)=H(x).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/09aa37fe8f24c42a24f3c148d3334a8cc0e2af8c)
Последнее свойство показывает, что количество информации совпадает с информационной энтропией, если компонента потери информации (шум) равна нулю.
Литература