9.2 Sistemas de numeración para la representación a Bajo y Alto Nivel 203
b- Datos No Numéricos
Este tipo de dato maneja los valores no numéricos que se pueden agrupar en 2 formas:
Tipo Lógico
Tipo Carácter
c- Datos Lógicos
Este tipo de dato maneja solo dos valores: Falso(F) o Verdadero(V). Este tipo de datos es
utilizado para definir decisiones en un problema, mediante la definición de condiciones.
d- Datos Carácter
Los datos carácter están conformados por el conjunto ordenado de caracteres que la computadora
puede representar. En general los caracteres que se pueden representar en una computadora se
pueden clasificar en las siguientes categorías:Caracteres alfabéticos: Por ejemplo: A,a,B,b,C,c
Caracteres numéricos: Por ejemplo: 1,2,3 etc.
Caracteres especiales: Por ejemplo: +.-,*,/ etc.
Codificación de caracteres
Este proceso consiste en asignarle a cada carácter de un alfabeto un valor numérico usando una
norma de codificación, a este valor numérico se le denomina punto de codificación. Los puntos
de codificaciónse representan por uno o más bytes.
Normas de codificación
Las normas de codificación definen la forma como un carácter se codifica en un punto de codifi-
cación. Ejemplos de normas de codificación son: ASCII, ASCII Extendido, Unicode
ASCII
Esta norma utiliza 1 byte para codificar caracteres, usando 7 bits para codificar el carácter y 1 bit
para detectar errores de paridad, por lo tanto sólo se pueden codificar 128 caracteres. Entre los
símbolos codificados en la Norma ASCII se incluyen mayúsculas y minúsculas del abecedario
inglés, además de cifras, puntuación y algunos “caracteres de control”, pero el ASCII no incluye
ni los caracteres acentuados ni el comienzo de interrogación que se usa en castellano, ni tantos
otros símbolos (matemáticos, letras griegas,...) que son necesarios en muchos contextos.
ASCII Extendido
Con el fin de superar las deficiencias de la Norma ASCII se definieron varios códigos de carac-
teres de 8 bits, entre ellos el ASCII extendido. Sin embargo, el problema de estos códigos de 8
bits es que cada uno de ellos se define para un conjunto de lenguas con escrituras semejantes
y por tanto no dan una solución unificada a la codificación de todas las lenguas del mundo. Es
decir, no son suficientes 8 bits para codificar todos los alfabetos y escrituras del mundo.
Unicode
La Norma Unicode emplea 2 bytes (16 bits) para representar cada carácter. Esta norma permite
la representación de cualquier carácter, en cualquier lenguaje, permitiendo abarcar todos los
alfabetos europeos, ideogramas chinos, japoneses, coreanos, muchas otras formas de escritura, y
más de un millar de símbolos locales.