ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Ciencias Y Tecnologías De La Comunicación, Información Y La Codificación


Enviado por   •  1 de Agosto de 2011  •  3.500 Palabras (14 Páginas)  •  1.189 Visitas

Página 1 de 14

Ciencias y tecnologías de la Comunicación, Información y la Codificación.

1

1. INTRODUCCION A LA TEORIA DE LA INFORMACION Y CODIFICACION

1.1. Orígenes de la teoría de la información

A través de la historia se ha discrepado con respecto a su propio valor. Algunos hombres

han estudiado los primeros tiempos para encontrar un sistema universal, en cuyo inevitable

desarrollo se pueda ver el futuro y el pasado. Otros, han buscado en el pasado recetas para

conseguir el éxito en el presente. Así, algunos creen que estudiando los descubrimientos

científicos de otros tiempos, se puede aprender cómo hacer descubrimientos. Por otra parte,

un sabio observó, que no se puede aprender nada de la historia, excepto que nunca

aprenderemos algo de la historia y Henry Ford aseguró, que la historia es vana palabrería.

Todo lo anterior, sobrepasa el campo de acción de la teoría de la información, entonces, por

lo menos se debe aceptar aprender algo de la historia de la ciencia.

Una de esas cosas que se puede aprender de la historia de la ciencia, es que muchos de los

más poderosos y generales descubrimientos, se han conseguido de no estudiar los

fenómenos, tal como ocurren en la naturaleza, sino a través del estudio del fenómeno, en

dispositivos construidos por el hombre, en productos de la tecnología si se quiere. Esto es

así, porque los fenómenos en los dispositivos humanos, están simplificados y ordenados en

comparación con lo que ocurre naturalmente y en estos razonamientos simplificados el

hombre puede razonar más fácilmente.

Así, la existencia de la máquina de vapor, en la cual los fenómenos relativos al calor, presión

vaporización y condensación ocurren de una manera simple y ordenada, dió un impulso a la

ciencia de la termodinámica. Esto se puede ver especialmente en el trabajo de Carnot. El

conocimiento acerca de aerodinámica e hidrodinámica existe, porque existen los aeroplanos

y los barcos. Nuestro conocimiento acerca de la electricidad, viene principalmente, no del

estudio de la luz, sino de los artefactos.

Igualmente, se encontrarán las raíces de la amplia y elegante teoría de la información, en el

simplificado y aparente fácil de entender "el fenómeno de la telegrafía".

La segunda cosa que la historia enseña, es lo difícil que resulta llegar al conocimiento, es

decir, de conocer lo que no se conoce, por ejemplo, algún día fue muy difícil entender y

conocer las leyes de Newton.

Así, el origen de las ideas científicas puede ayudarnos a valorar más altamente el

conocimiento, por lo duro y costoso que ha sido conseguirlo. Se puede ver a menudo,

hombres de épocas anteriores, tropezando al borde de un descubrimiento, pero sin llegar a

dar el paso final.

El conocer debidamente los orígenes de una idea, puede llegar a mostrar lo que realmente

contiene, qué grado de comprensión ha sido alcanzado y cómo han sido alcanzadas la

unidad y claridad. Pero para alcanzar tal conocimiento, se debe averiguar el curso real del

descubrimiento, no el que se crea que debería haber tenido y deben ver los problemas,

como los veían los hombres del pasado, no como se ven hoy.

En termodinámica y mecánica estadística, se usa una pequeña cantidad llamada entropía

que también se usa en teoría de la información. Después de todo, la termodinámica y la

mecánica estadística son más antiguas que la teoría de la información.

Ciencias y tecnologías de la Comunicación, Información y la Codificación.

2

En física, la entropía está asociada a la posibilidad de convertir energía térmica, en energía

mecánica, si la entropía no cambia durante el proceso, el proceso es reversible, si la

entropía aumenta, la energía disminuye. La mecánica estadística interpreta un aumento de

la entropía, como una disminución del orden o si se quiere, como una disminución de

conocimiento. Las aplicaciones y detalles de la entropía en física, son naturalmente mucho

más amplias que las que han sido dadas como ilustraciones, pero se ha indicado su

naturaleza y su importancia.

En teoría de la información, se considera una fuente de mensajes tal como un escritor o un

locutor o cualquier usuario de cualquier sistema de servicios (salud, educación, económico,

etc), que puede producir en un momento dado, cualquiera de varios mensajes posibles. La

cantidad de información transportada por el mensaje aumenta cuando la cantidad de

indeterminación en la cual se produzca el mensaje se hace más grande, es decir que un

mensaje que se obtiene de diez mensajes posibles, transporta menos cantidad de

información que uno que se produzca de un millón de mensajes.

Las ideas que dan origen a la entropía de los físicos y a la entropía de la teoría de la

información, son completamente diferentes; una de ellas puede ser empleada con utilidad,

sin hacer referencia a la otra. No obstante, la entropía de la mecánica estadística y la de

teoría de la información, pueden ser descritas en términos de inseguridad, con téminos

matemáticos análogos.

La teoría de la información, tiene su origen en el estudio de la comunicación eléctrica y no en

el de la mecánica estadística, algunas de las más importantes tienen su origen en los

primeros orígenes de la comunicación eléctrica.

Durante un viaje trasatlántico en 1832, Samuel F. B. Morse, comenzó a trabajar en la

primera forma verdaderamente lograda del telégrafo eléctrico. Tal como Morse lo hizo, su

telégrafo era mucho más complicado que el que se conoce ahora, aquel dibujaba sobre una

cinta de papel, las líneas cortas y largas cuya sucesión representaba no las letras de una

palabra, sino números asignados a palabras de un diccionario o libro código, que Morse

completó en 1837. Esto era una forma eficiente pero incómoda de lo que se llamará

codificar.

Cuando Morse estaba trabajando con Alfred Vail, se abandonó el viejo código, y lo que

ahora se conoce como código Morse fue ideado en 1838. En este código, las letras del

alfabeto están representadas por espacios, puntos, rayas. El espacio es la ausencia de

corriente eléctrica, el punto es una corriente eléctrica de corta duración y la raya es una

corriente eléctrica de mayor duración.

Varias combinaciones de puntos y rayas

...

Descargar como (para miembros actualizados) txt (24 Kb)
Leer 13 páginas más »
Disponible sólo en Clubensayos.com