ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Contabilidad


Enviado por   •  2 de Mayo de 2013  •  2.424 Palabras (10 Páginas)  •  220 Visitas

Página 1 de 10

La Información

Contable y las

Teorías de la

Información

*Tomado de: Visión Contable, Universidad Autónoma Latinoamericana No. 4,

año 2004.

Por: Carlos Mario Restrepo Pineda*

*Contador Público, Universidad Autónoma Latinoamericana (UNAULA).

Tecnólogo en Sistemas, Tecnológico de Antioquia (T. de A.).

EMAIL: cmrp@hotmail.com

Octubre de 2003

2

RESUMEN

¿Qué es la información? Es una pregunta básica a la que se le ha tratado de dar respuesta desde

dos puntos de vista diferentes, el uno utilizando la semiótica: la sintaxis, la semántica y la

pragmática, y el otro utilizando la termodinámica: primera y segunda ley de la termodinámica.

¿Cuál de las teorías de la información, explica la naturaleza de la información contable? Es una

pregunta a la que se le dará respuesta utilizando como herramienta de trabajo las teorías de la

información que se han desarrollado a partir de la semiótica y la termodinámica.

Palabras claves: Sintaxis, semántica, pragmática, entropía, neguentropía, información, bit,

notación numérica decimal, notación numérica binaria, paridad probabilística, lógica preposicional

clásica.

INTRODUCCIÓN

¿Qué es información? ¿Cómo se puede medir, comunicar, almacenar y procesar la información?

¿Cómo saber el contenido de la información? ¿Cómo conocer la información desde el mundo

pragmático? ¿Cómo conocer la cantidad de información que tiene un sistema? Son cinco

preguntas a las que se les ha tratado de dar respuesta desde la teoría semiótica y las leyes de la

3

termodinámica.

Los elementos básicos de un sistema semiótico son: el signo, el significante y el sujeto; de

acuerdo con esta triada, las ramas de la semiótica son: la sintaxis que estudia la relación de los

signos entre sí, la semántica que estudia la relación del signo con el significado y la pragmática que

estudia la relación entre el signo y el usuario.

Como se aprecia la semiótica se refiere a tres aspectos de la información: la sintaxis, la semántica

y la pragmática de las cuales se desprenden la teoría sintáctica o matemática de la información, la

teoría semántica de la información y la teoría pragmática de la información. La sintaxis utiliza como

herramienta el cálculo de probabilidades, la semántica utiliza como herramienta la lógica

preposicional clásica y el pragmatismo utiliza como herramienta al individuo humano.

Desde la sintaxis la información tiene una dimensión comunicacional, la cual trata de la transmisión

de mensajes basada en la probabilidad de aparición de una unidad elemental portadora de

información, el bit (Binary Digit), para esta visión interesa la cantidad de información que puede ser

transmitida. Desde la visión semántica se pretende medir el contenido de la información, y por

último, hay una visión pragmática donde el individuo objetiviza la información con su contenido

socio político cultural.

La termodinámica con sus leyes: la primera ley de la termodinámica y la segunda ley de la

termodinámica, ha aportado el concepto de entropía entendida como una medida del desorden de

cualquier sistema, a partir de este concepto por isomorfismo matemático se ha llegado el concepto

de neguentropía, entendida como lo opuesto a la entropía, es decir, como una medida del orden de

cualquier sistema, e identificando ese orden con el grado de organización contenido en ese

sistema, por lo que podemos hablar de una teoría neguentrópica de la información.

4

La pregunta, que se hace desde lo contable, a las teorías que tratan de explicar el concepto de

información, es: ¿cuál de las teorías acerca del concepto de información, explica la naturaleza de

la información contable? Para responder este interrogante se hará una presentación de las

respectivas teorías indicando como se podría explicar la naturaleza de la información contable

desde cada una de ellas.

1. LA TEORÍA SINTÁCTICA DE LA INFORMACIÓN1

Esta teoría fue Desarrollada por C.E. Shannon y W. Weaver. La sintaxis se refiere a la teoría

matemática de la información también llamada teoría métrica de la información o teoría sintáctica

de la información. Esta teoría no se ocupa del contenido semántico del conjunto de mensajes, del

cual selecciona uno para trasmitirlo, sino que centra su atención en las señales que son

transmitidas independiente de su significado. La sintaxis se abstrae de todo contenido semántico y

pone su atención en cómo se forman y transforman los signos.

Supongamos que existen en total n mensajes entre los que podemos escoger, también

supongamos que cada mensaje tiene la misma probabilidad de ser escogido que cualquier otro

mensaje, ese número n se puede usar como una medida de la cantidad de <<información>>

contenida en el conjunto de mensajes que pueden ser transmitidos. Pero al existir paridad entre

los mensajes, es decir que todos los mensajes tengan igual probabilidad de ser seleccionados, se

ha adoptado el Log n, en vez de n para medir el contenido informativo de un sistema de

comunicación.

El sistema más sencillo, que tiene un repertorio de dos mensajes, conocido como sistema binario,

1 SINGH, Jagjit. Ideas Fundamentales Sobre la Teoría de la Información, del Lenguaje y de la

5

tiene como base el 2, y el contenido informativo sería Log2 2 = 1 (La unidad), esta unidad es

llamada BIT binary unit: unidad binaria, y significa que el contenido informativo de este sistema es

de un bit.

Pero esta medida de la información en este sistema informativo esta limitada a la paridad

probabilística que deben tener los dos mensajes, la cual en la realidad no se presenta. Es por eso

que la medida de información propuesta anteriormente, el Log2 2 debe ser corregida, y la clave

para la corrección está en el hecho de que la falta de paridad probilística entre los mensajes de un

sistema, puede ser la probabilidad de que cada uno de ellos pueda ser elegido.

Se puede generalizar un sistema que incluya más de dos mensajes, por ejemplo n mensajes, cada

uno con su propia probabilidad de ser elegido p1, p2, p3,...,pn. La suma de la información del

sistema total será la suma ponderada de la contribución probabilística Log2pi así, la fórmula

...

Descargar como (para miembros actualizados) txt (16 Kb)
Leer 9 páginas más »
Disponible sólo en Clubensayos.com