9.2 Sistemas de numeración para la representación a Bajo y Alto Nivel 203 b- Datos No Numéricos Este tipo de dato maneja los valores no numéricos que se pueden agrupar en 2 formas: Tipo Lógico Tipo Carácter c- Datos Lógicos Este tipo de dato maneja solo dos valores: Falso(F) o Verdadero(V). Este tipo de datos es utilizado para definir decisiones en un problema, mediante la definición de condiciones. d- Datos Carácter Los datos carácter están conformados por el conjunto ordenado de caracteres que la computadora puede representar. En general los caracteres que se pueden representar en una computadora se pueden clasificar en las siguientes categorías:Caracteres alfabéticos: Por ejemplo: A,a,B,b,C,c Caracteres numéricos: Por ejemplo: 1,2,3 etc. Caracteres especiales: Por ejemplo: +.-,*,/ etc. Codificación de caracteres Este proceso consiste en asignarle a cada carácter de un alfabeto un valor numérico usando una norma de codificación, a este valor numérico se le denomina punto de codificación. Los puntos de codificaciónse representan por uno o más bytes. Normas de codificación Las normas de codificación definen la forma como un carácter se codifica en un punto de codifi- cación. Ejemplos de normas de codificación son: ASCII, ASCII Extendido, Unicode ASCII Esta norma utiliza 1 byte para codificar caracteres, usando 7 bits para codificar el carácter y 1 bit para detectar errores de paridad, por lo tanto sólo se pueden codificar 128 caracteres. Entre los símbolos codificados en la Norma ASCII se incluyen mayúsculas y minúsculas del abecedario inglés, además de cifras, puntuación y algunos “caracteres de control”, pero el ASCII no incluye ni los caracteres acentuados ni el comienzo de interrogación que se usa en castellano, ni tantos otros símbolos (matemáticos, letras griegas,...) que son necesarios en muchos contextos. ASCII Extendido Con el fin de superar las deficiencias de la Norma ASCII se definieron varios códigos de carac- teres de 8 bits, entre ellos el ASCII extendido. Sin embargo, el problema de estos códigos de 8 bits es que cada uno de ellos se define para un conjunto de lenguas con escrituras semejantes y por tanto no dan una solución unificada a la codificación de todas las lenguas del mundo. Es decir, no son suficientes 8 bits para codificar todos los alfabetos y escrituras del mundo. Unicode La Norma Unicode emplea 2 bytes (16 bits) para representar cada carácter. Esta norma permite la representación de cualquier carácter, en cualquier lenguaje, permitiendo abarcar todos los alfabetos europeos, ideogramas chinos, japoneses, coreanos, muchas otras formas de escritura, y más de un millar de símbolos locales.
Created with BuildVu