Definición de Código Decimal
Como muchos sabrán, en el mundo de la informática los ordenadores utilizan el establecimiento de un Código Binario para realizar una comunicación entre los distintos dispositivos de Hardware presentes en un equipo, que consiste básicamente en la utilización de ceros y unos que representan la transmisión o no-transmisión de electricidad. Estos impulsos eléctricos son interpretados por la Unidad Central de Procesamiento realizando distintos cálculos aritméticos y lógicos que permiten transformar estos Datos Aislados obtenidos en la obtención de una Información que puede ser interpretada, leída y mostrada por otros Dispositivos de Salida, y a su vez interpretada por un usuario a través de sus sentidos.
De esta mínima unidad de expresión se obtiene el concepto de Bit, mientras que la combinación de 8 bits sucesivos da lugar a lo que es conocido como Byte, siendo ésta la unidad de medición para la capacidad de almacenamiento o procesamiento en las Memorias.
En lo que respecta al Código Decimal, debemos definirlo como aquel que es utilizado por los ordenadores para trabajar en una Base de Diez Dígitos, considerándose entonces este intervalo del 0 al 9, y teniendo entonces cada instrucción lógica un código que es integrado justamente por dichos números.
Esto es relativo a lo que es el Decimal Codificado en Binario, conocido en inglés como Binary Coded Decimal (BCD) que es justamente el estándar que permite la representación de decimales dentro del Sistema Binario, siendo cada uno de estos números codificado con una secuencia específica de 4 bits.
De este modo, permite la realización de operaciones aritméticas de Suma, Resta, Multiplicación y División pero trabajando no esta vez en el Código Binario, sino utilizando una representación de Números Decimales, sin que ello signifique una pérdida en la calidad, mediante la transformación de Binario a Decimal o viceversa.
Si bien la conversión es bastante sencilla, lo cierto es que este método no se utiliza demasiado debido a que se trata de cálculos ligeramente más complicados, lo que supone entonces una pérdida en la velocidad de los procesos del ordenador.
La principal ventaja que representa la utilización del código Decimal Codificado en Binario respecto a la utilización del Código Binario tradicional es que no tenemos un límite para el tamaño de un número específico, ya que éstos últimos están supeditados a la representación que se pueda realizar con múltiplos de 8 bits, mientras que en el sistema Decimal, cada nuevo dígito supone una nueva secuencia de 4 Bits.
Por Sistemas, el 11/02/2005.