Codificacion de caracteres

Que es?

caracteres almacenados en computadores con un codigo

la llave que abre o descifra el codigo

sin la llave los datos parecen garabatos

Tipos de codificacion

UTF-8

UTF-16

UTF-32

Unicode

Fuentes

Una fuente es la colección de definiciones de glifos, es decir, definiciones de formas que se utilizan a fin de mostrar caracteres

En general, una fuente en particular cubrirá un único set de caracteres o, en el caso de un set de caracteres más amplio como Unicode, sólo un set secundario de todos los caracteres de ese set

ASCII

Cuando dos computadores intercambian información,
deben asegurarse de estar usando el mismo código
numérico para cada carácter.

Unicode es un set de caracteres universal, es decir, un estándar en el que se definen todos los caracteres necesarios para la escritura de la mayoría de los idiomas hablados en la actualidad que se usan en la computadora

American Standard Code for Information Interchange

utiliza 2 bytes para cualquier carácter en el BMP y 4 bytes para los caracteres complementarios.

emplea 4 bytes para todos los caracteres.

utiliza 1 byte para representar caracteres en el set ASCII, dos bytes para caracteres en otros bloques alfabéticos y tres bytes para el resto del BMP. Para los caracteres complementarios se utilizan 4 bytes.

Su objetivo es ser, y, en gran medida, ya lo ha logrado, un superconjunto de todos los sets de caracteres que se hayan codificado.

El texto que aparece en la computadora o en la Web se compone de caracteres. Los caracteres representan letras del abecedario, signos de puntuación y otros símbolos.