Informatica
Enviado por ivaleriar • 10 de Abril de 2013 • 315 Palabras (2 Páginas) • 307 Visitas
• BIT
Un BIT es una manera "binaria " de presentar información; es decir, expresa una de solamente dos alternativas posibles. Se expresa con un 1 o un 0, con un sí o no, verdadero o falso, blanco o negro, algo es o no es, voltaje o no voltaje, un nervio estimulado o un nervio inhibido. (Sabemos que no todo lo que se encuentra en nuestro universo es blanco o negro, pero aún así podemos utilizar esta forma binaria de representación para expresar estados intermedios logrando la precisión deseada).
• BYTE
Es la unidad de información formada por ocho bits (01011101). Según cómo estén combinados los bits (ceros o unos), formaran un bytes dependiendo de la cantidad de bytes, formarán kilobytes, un megabytes, gigabytes, etc. Relacionados: Nibble que equivale a medio bytes; DBCS: es el conjunto de caracteres que necesitan dos bytes para aparecer.
• KILOBYTE
Unidad de medida de la cantidad de información en formato digital. Un byte consiste de 8 bits. Un BIT es un cero (0) o un uno (1). Por lo tanto un ejemplo de un byte es 01001001. Esa secuencia de números (byte) pueden simbolizar una letra o un espacio. Un kilobytes (Kb) son 1024 bytes y un Megabytes (Mb) son 1024 Kilobytes
• MEGABYTE
El Megabytes (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo binario del byte, que equivale a 220 (1 048 576) bytes, traducido a efectos prácticos como 106 (1 000 000) bytes.
• GYGABYTE
Es una unidad de almacenamiento. Existen dos concepciones de gigabytes (GB). (Debemos saber que un byte es un carácter cualquiera) Un gigabytes, en sentido amplio, son 1.000.000.000 bytes (mil millones de bytes), ó también, cambiando de unidad, 1.000 megas (MG o megabytes). Pero si somos exactos, 1 GB son 1.073.741.824 bytes ó 1.024 MB.
• TERABYTE
Una unidad de almacenamiento tan desorbitada que resulta imposible imaginársela, ya que coincide con algo más de un trillón de bytes. Un uno seguido de dieciocho ceros.
...