¿Cómo se calcula la entropía de una señal??
Para calcular la entropía espectral instantánea dada un espectrograma de potencia de frecuencia de tiempo S (t, f), la distribución de probabilidad en el tiempo t es: p (t, m) = s (t, m) ∑ f s (t, f) . Entonces la entropía espectral en el tiempo t es: h (t) = - ∑ m = 1 n p (t, m) log 2 p (t, m) .
¿Qué es la entropía Shannon de una señal??
La entropía de Shannon mide la previsibilidad de los valores de amplitud futuros del electroencefalograma basado en la distribución de probabilidad de los valores de amplitud (1.024 en este estudio) ya observados en la señal. Con el aumento de las concentraciones de desflurano, la señal electroencefalográfica se vuelve más regular.