- La entropía es discreta o continua?
- ¿Qué es la distribución discreta con el ejemplo??
- ¿Qué es la entropía de datos??
- ¿Qué significa la entropía de 1??
La entropía es discreta o continua?
La entropía y la preservación de la entropía están bien definidas solo en el contexto de variables aleatorias puramente discretas o continuas. Sin embargo, para una mezcla de variables aleatorias discretas y continuas, que surgen en muchas situaciones interesantes, las nociones de entropía y preservación de entropía no se han entendido bien.
¿Qué es la distribución discreta con el ejemplo??
Una distribución de probabilidad discreta cuenta con ocurrencias que tienen resultados contables o finitos. Esto contrasta con una distribución continua, donde los resultados pueden caer en cualquier lugar de un continuo. Ejemplos comunes de distribución discreta incluyen distribuciones binomiales, de Poisson y Bernoulli.
¿Qué es la entropía de datos??
En la teoría de la información, la entropía de una variable aleatoria es el nivel promedio de "información", "sorpresa" o "incertidumbre" inherente a los posibles resultados de la variable.
¿Qué significa la entropía de 1??
Esto se considera una alta entropía, un alto nivel de trastorno (que significa bajo nivel de pureza). La entropía se mide entre 0 y 1. (Dependiendo del número de clases en su conjunto de datos, la entropía puede ser mayor que 1, pero significa lo mismo, un nivel muy alto de desorden.