Kategorier: Alla - accesibilidad - información - confiabilidad - codificación

av ANGIE GOMEZ GOMEZ för 8 årar sedan

208

Teoria De La Información

La obtención de información de manera eficiente y precisa es esencial para la toma de decisiones y resolución de problemas. La información debe ser clara y exacta, y su calidad se evalúa comparando los hechos descritos con la realidad.

Teoria De La Información

La informacion debe ser tratada y procesada con los mismos criterios para tener uniformidad.

La informacion es relevante cuando una persona la necesita para tomar decisiones o resolver problemas.

La informacion que se almacene se selecciona dependiendo su valor significativo para procesarla.

La información debe estar clara y precisa para no generar confusiones.

Fácil acceso a las fuentes para obtener la información.

Al comparar los hechos descritos con la realidad, entre mas se asemejen a la realidad mayor sera su calidad.

Contar con la informacion necesaria en el momento oportuno.

Información con total exactitud de las operaciones u otras acciones.

ANGIE PAOLA GOMEZ

TEORÍA DE LA INFORMACIÓN.

FUENTES DE INFORMACION

Fuentes de tiempo continuo: la función está definida para cualquier valor de la variable independiente.
Fuentes de tiempo discreto: la función sólo está definida para un conjunto contable de instantes de tiempo.

Fuentes continuas o de amplitud continua: el valor de la función toma un rango continuo de valores.

Fuentes discretas o de amplitud discreta: el valor de la función sólo toma un conjunto finito de valores. A cada uno de estos valores lo llamamos símbolo.

COODIFICACION Y COMPRENSION DE DATOS

sería interesante reducir el volumen de datos a manejar, siempre que se pueda. ¿Estamos a favor de comprimir? Sí, siempre que no se pierda información, claro. O dicho de otra forma, debe poderse recuperar los datos originales a partir de los datos comprimidos.

DIVERGENCIA

también conocida como divergencia de la información, es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q.

Entropia

Tambien llamada entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.

ATRIBUTOS

Confiabilidad
Oportunidad

Calidad

Accesibilidad

Claridad

Selectividad

Relevancia

Uniformidad

DEFINICION