Дифференциальная энтропия (относительная энтропия[1], энтропия непрерывной случайной величины[1]) — обобщение понятия информационной энтропии для случая непрерывной случайной величины. В теории информации интерпретируется как средняя информация непрерывного источника.
Дифференциальная энтропия, в отличие от энтропии дискретной случайной величины, неинвариантна к преобразованию координат[2].
Дифференциальную энтропию можно определить как разность энтропий двух отличающих на бесконечно малую величину квантованных значений случайной величины, имеющей равномерное распределение на интервале, равном единице. Отсюда название энтропии — дифференциальная, то есть разностная[1].
Условная дифференциальная энтропия
Условная дифференциальная энтропия для случайной величины при заданной случайной величине определяется по формуле[3]:
где — совместная плотность вероятности случайных величин и , — условная плотность вероятности случайной величины при заданном значении случайной величины .
Безусловная и условная дифференциальные энтропии могут быть как положительными, так и отрицательными величинами.
В этом случае дифференциальная энтропия принимает максимальное значение среди всех распределений случайных величин, значения которых находятся в интервале , равное [5].
В этом случае дифференциальная энтропия принимает максимальное значение среди всех распределений случайных величин, значения которых находятся в интервале [6], равное [7].
В этом случае дифференциальная энтропия принимает максимальное значение среди всех распределений случайных величин, значения которых находятся в интервале [6], равное .