вимірюється в кал/(моль К) (ентропійна одиниця – е. е.) і дж/(моль К).
Ентропія дорівнює 0якщо ймовірність одного зі станів джерела інформації дорівнює 1, і цим стан джерела повністю визначено (ймовірності інших станів джерела рівні нулю, тобто.
H=F(N, P). Розрахунок ентропії у разі виробляється за формулою Шеннона, запропонованої їм у 1948 року у статті «Математична теорія зв'язку». Таким чином ентропія у формулі Шеннона є середньою характеристикою – математичним очікуванням розподілу випадкової величини {I0, I1, …