ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Informatica


Enviado por   •  13 de Septiembre de 2013  •  3.540 Palabras (15 Páginas)  •  227 Visitas

Página 1 de 15

2.1 Transformación de los datos en información

A menudo parece que las computadoras debieran entendernos debido a que nosotros entendemos la información que producen. Sin embargo, las computadoras no pueden entender todo. Todo lo que pueden hacer es reconocer dos estados físicos distintos producidos por la electricidad, la polaridad magnética o luz reflejada. En esencia, todo lo que pueden entender es si un interruptor está encendido o apagado. De hecho, el "cerebro" de la computadora, la CPU, consiste principalmente de varios millones de diminutos interruptores eléctricos, llamados transistores.

Una computadora sólo aparenta entender información debido a que contiene tantos transistores y opera a velocidades tan fenomenales, ensamblando sus interruptores individuales de encendido y apagado en patrones que son significativos para nosotros.

El término usado para describir la información representada por grupos de interruptores de encendido y apagado son los datos. Aunque las palabras datos e información a menudo se usan en forma indistinta, hay una diferencia importante entre ellas. En el sentido más estricto, los datos consisten de los números en bruto que la computadora organiza para producir información.

Usted puede pensar en los datos como hechos fuera de contexto, como las letras individuales en esta página. Tomadas en forma individual, las palabras no dicen nada; agrupadas, sin embargo, transmiten significados específicos. Del mismo modo que en una marquesina de teatro se pueden combinar miles de luces para mostrar el nombre del espectáculo que se esté dando, una computadora convierte datos sin significado en información útil, como hojas de cálculo, gráficos y reportes.

2.2 Representación interna de los datos

- REPRESENTACIÓN DE LAS INSTRUCCIONES.

Una instrucción es un conjunto de símbolos que la computadora es capaz de interpretar con objeto de realizar las operaciones de las que consta un programa. Las instrucciones utilizadas por los ordenadores pueden tener diferentes formatos.

Todas las instrucciones tienen una parte que las diferencia, el código de operación que indica la operación a ejecutar. Según el tipo de operación, pueden contener uno o varios operan dos.

- Representación Alfanumérica.

La representación de la información de tipo texto escrito se hace codificando, en un octeto, cada uno de los caracteres que componen dicha información

.- Representación Numérica.

Como se sabe, los números se pueden clasificar en:

- Naturales.

- Enteros.

- Racionales.

- Irracionales.

Cualquiera de estos conjuntos de números es infinito, mientras que el espacio material de representación de los computadores es finito, por lo tanto, no es posible representar todos los valores.

En informática, se asigna un número fijo de n bits para representar un número.

Teniendo en cuenta que n bits permiten 2n números distintos existirán dos valores.

Se llama rango de representación al intervalo comprendido entre el mayor y el menor número representable.

- Representación de textos. Usualmente la información se da al ordenador en

la forma usual escrita que utilizan los seres humanos; es decir, con ayuda de un

alfabeto o conjunto de símbolos, que denominaremos caracteres.

- Representación de sonidos. Los ordenadores actuales, además de procesar textos y datos numéricos, también operan con otro tipo de elementos, como sonidos, digitalizados y representados en binario en el interior del ordenador, mediante distintas codificaciones del sonido.

- Representación de imágenes. Al igual que los sonidos, las imágenes tanto estáticas como dinámicas poseen su representación y codificación binaria digital en el interior de tos ordenadores. Siendo la codificación de las imágenes una de las técnicas que más están evolucionando en los últimos tiempos debido al auge de los sistemas multimedia.

2.3 Sistema decimal codificado en binario (BCD)

Es un estándar para representar números decimales en el sistema binario, en donde cada dígito decimal es codificado con una secuencia de 4 bits. Con esta codificación especial de los dígitos decimales en el sistema binario, se pueden realizar operaciones aritméticas como suma, resta, multiplicación y división de números en representación decimal, sin perder en los cálculos la precisión ni tener las inexactitudes en que normalmente se incurre con las conversiones de decimal a binario puro y de binario puro a decimal. La conversión de los números decimales a BCD y viceversa es muy sencilla, pero los cálculos en BCD se llevan más tiempo y son algo más complicados que con números binarios puros.

2.4 Sistema EBCDIC

Es un código estándar de 8 bits usado por computadoras mainframe IBM. IBM adaptó el EBCDIC del código de tarjetas perforadas en los años 1960 y lo promulgó como una táctica customer-control cambiando el código estándar ASCII.

EBCDIC es un código binario que representa caracteres alfanuméricos, controles y signos de puntuación. Cada carácter está compuesto por 8 bits = 1 byte, por eso EBCDIC define un total de 256 caracteres.

Existen muchas versiones ("codepages") de EBCDIC con caracteres diferentes, respectivamente sucesiones diferentes de los mismos caracteres. Por ejemplo al menos hay 9 versiones nacionales de EBCDIC con Latín 1 caracteres con sucesiones diferentes.

El siguiente es el código CCSID 500, una variante de EBCDIC. Los caracteres 0x00–0x3F y 0xFF son de control, 0x40 es un espacio, 0x41 es no-saltar página y 0xCA es un guion suave.

2.5 Sistema ASCII

Es un código de caracteres basado en el alfabeto latino, tal como se usa en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.

El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un bit adicional (bit de paridad) que se usaba para detectar errores en la transmisión. A menudo se llama incorrectamente ASCII a otros códigos de caracteres de 8 bits, como el estándar ISO-8859-1 que es una extensión que utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas distintos al inglés, como el español.

ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado

...

Descargar como (para miembros actualizados) txt (23 Kb)
Leer 14 páginas más »
Disponible sólo en Clubensayos.com