Schramm: “Teoría de la Información y Comunicación de Masas”
Enviado por Cgm1995 • 8 de Julio de 2018 • Resumen • 13.715 Palabras (55 Páginas) • 122 Visitas
Schramm: “Teoría de la Información y Comunicación de Masas”
Esta teoría fue ideada por ingenieros que estudiaron la transmisión de información e investigaron cómo lograr que su totalidad llegue a destino.
- Comunicación: Se produce cuando dos sistemas correspondientes, acoplados mediante uno o más sistemas no correspondientes, asumen estados idénticos como resultado de la transferencia de señales en la cadena. Ej.: Cuando el sonido que entra al teléfono es reproducido por el sonido que sale por el teléfono que está al otro extremo de la línea.
- Sistema: Es cualquier parte de una cadena de información capaz de asumir uno o más estados, o en la que pueden ocurrir uno o más sucesos. Si se desea transmitir información, los sistemas deben acoplarse. Ej.: Las cuerdas vocales conforman un sistema capaz de asumir diferentes estados (si vibran o no), al igual que la membrana de un micrófono.
Hay dos tipos de sistemas:
- Funcional: Sus estados dependen de sus operaciones anteriores. Codifica y decodifica información sobre la base de la experiencia anterior. Es un sistema que aprende. Ej: Sistema nervioso central.
- Estructural: Es un sistema que no aprende. Ej.: Cámara de fotos.
Los sistemas pueden ser:
- Correspondientes: Son capaces de asumir estados idénticos. Ej.: La entrada de sonido de un micrófono y la salida de sonido de un parlante; quien habla y quien escucha.
- No correspondientes: No son capaces de asumir estados idénticos. Ej.: El micrófono y el cable; el aire, que se une a sistemas correspondientes para que se produzca la comunicación.
- Acoplamiento: Los sistemas están acoplados cuando el estado de uno de los sistemas depende del estado del sistema que está asociado con él. Sin él no hay cadena de comunicación porque es el que permite la transmisión de información. Ej.: Cuando las frecuencias de la luz impresionan al ojo y provocan descargas en el nervio óptico los sistemas están acoplados.
Si se interrumpe el acoplamiento, se impide la transmisión de información.
- Información: Se define en función de su capacidad para reducir la incertidumbre o desorganización en el extremo receptor.
- Entropía: Incertidumbre o desorganización de un sistema. Se mide en función de la cantidad de información requerida para eliminar la incertidumbre. Ej.: Va a haber entropía si miro el noticiero y pasan una noticia de la que no tengo conocimiento previo.
- Redundancia: Es lo opuesto a la entropía. Es una medida de certeza o posibilidad de predicción. Cuanto más redundante es un sistema, menos información se transmite en un tiempo determinado. Ej.: Si miro el noticiero y pasan una noticia de la que tengo conocimiento, va a ser redundante para mí porque sé de qué se trata.
- Ruido: Es toda interferencia en la comunicación. Es todo aquello que está en el canal y que no ha sido puesto por el comunicador. Puede ser un estímulo que compite desde el exterior (ambulancia que pasa mientras dos vecinas charlan en la vereda) o desde el interior (en un chat se va la señal de internet). Si aumenta la redundancia hay menor ruido.
- Filtro: Todo sistema que se acopla a otros dos es un filtro. Un filtro selecciona la información. Los filtros están sujetos a medidas de estabilidad y fidelidad de la Teoría de la Información. Ej.: El periodista que lanza su primicia debe hacer una selección de lo que ve y oye en función de lo que quieren sus directores y “supuestamente” sus lectores.
- Estabilidad: Es la cantidad de información que entra y que sale del sistema. Ej.: De todo lo que recibe, el noticiero selecciona la información que va a salir al aire.
- Fidelidad: Tiene que ver con la confiabilidad de la información.
- Amplificadores: Es la capacidad que tiene el medio de transmitir información (a cuántas personas puede llegar). Ej.: Noticiero que transmite una sola noticia en un solo acto, pero en muchos lugares a la vez.
- Capacidad de canal: Es el límite máximo que tiene todo canal en su capacidad de asumir diferentes estados o trasmitir diferentes sucesos. El tiempo que transcurre desde el estímulo hasta que el sujeto toca el objeto se considera el tiempo total para codificar y decodificar. La velocidad a la cual el tiempo total se estabiliza se considera la óptima capacidad de canal, porque es allí donde se transmite la mayor cantidad de información exacta. El error se reduce si la velocidad de transmisión está por debajo del límite.
- Redes: Todo grupo funcional es una red de comunicación. Ej.: Equipo de filmación. La intercomunicación dentro de la red se puede medir. Osgood y Wilson proponen, además de entropía, redundancia, ruido, fidelidad y capacidad, las siguientes mediciones:
- Tráfico: Quiénes hablan más y cuánto se habla.
- Cierre: En qué medida el grupo es un cuerpo cerrado.
- Congruencia: En qué medida los miembros participan igualitariamente en la comunicación del grupo.
Westley y MacLean: “Un modelo conceptual para la investigación en comunicaciones”
- Comunicación: Los autores la consideran como un conjunto de procesos, porque por más simple que sea el mensaje tiene siempre muchos elementos. Hay dos tipos de comunicación:
- Comunicación cara a cara: Pone en juego más modalidades sensoriales. Retroalimentación inmediata.
- Comunicación de masas: Pone en juego un mínimo número de modalidades sensoriales. La retroalimentación se reduce al mínimo o se demora.
El modelo de comunicación propuesto por los autores es un modelo útil para el estudio de roles y normas. Por otro lado, usa como base el modelo de Newcomb en el que hay un emisor (A), un receptor (B) y un objeto de orientación (X). Cualquier modificación en alguno de estos componentes cambia el sistema de comunicación. La relación entre A y B determina la forma de ver a X.
...