La codificación de caracteres es crucial para asegurar que dos computadoras puedan intercambiar información correctamente, utilizando el mismo código numérico para cada carácter. Existen varios tipos de codificaciones, como UTF-8, UTF-16 y UTF-32, que difieren en la cantidad de bytes utilizados para representar caracteres.
El texto que aparece en la computadora o en la Web se compone de caracteres. Los caracteres representan letras del abecedario, signos de puntuación y otros símbolos.
Su objetivo es ser, y, en gran medida, ya lo ha logrado, un superconjunto de todos los sets de caracteres que se hayan codificado.
utiliza 1 byte para representar caracteres en el set ASCII, dos bytes para caracteres en otros bloques alfabéticos y tres bytes para el resto del BMP. Para los caracteres complementarios se utilizan 4 bytes.
emplea 4 bytes para todos los caracteres.
utiliza 2 bytes para cualquier carácter en el BMP y 4 bytes para los caracteres complementarios.
American Standard Code for Information Interchange
Unicode es un set de caracteres universal, es decir, un estándar en el que se definen todos los caracteres necesarios para la escritura de la mayoría de los idiomas hablados en la actualidad que se usan en la computadora
Codificacion de caracteres
ASCII
Cuando dos computadores intercambian información,
deben asegurarse de estar usando el mismo código
numérico para cada carácter.
Fuentes
En general, una fuente en particular cubrirá un único set de caracteres o, en el caso de un set de caracteres más amplio como Unicode, sólo un set secundario de todos los caracteres de ese set
Una fuente es la colección de definiciones de glifos, es decir, definiciones de formas que se utilizan a fin de mostrar caracteres
Unicode
Tipos de codificacion
UTF-32
UTF-16
UTF-8
Que es?
sin la llave los datos parecen garabatos
la llave que abre o descifra el codigo
caracteres almacenados en computadores con un codigo