TEORÍA DE LA INFORMACIÓN.
DEFINICION
Esta teoría está relacionada con las leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma
ATRIBUTOS
Confiabilidad
Oportunidad
Calidad
Accesibilidad
Claridad
Selectividad
Relevancia
Uniformidad
Entropia
Tambien llamada entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.
DIVERGENCIA
también conocida como divergencia de la información, es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q.
COODIFICACION Y COMPRENSION DE DATOS
sería interesante reducir el volumen de datos a manejar, siempre que se pueda. ¿Estamos a favor de comprimir? Sí, siempre que no se pierda información, claro. O dicho de otra forma, debe poderse recuperar los datos originales a partir de los datos comprimidos.
FUENTES DE INFORMACION
Fuentes de tiempo continuo: la función está definida para cualquier valor de la variable independiente.
Fuentes de tiempo discreto: la función sólo está definida para un conjunto contable de instantes de tiempo.
Fuentes continuas o de amplitud continua: el valor de la función toma un rango continuo de valores.
Fuentes discretas o de amplitud discreta: el valor de la función sólo toma un conjunto finito de valores. A cada uno de estos valores lo llamamos símbolo.