Estadistica
Enviado por kristyiron • 8 de Febrero de 2015 • 1.118 Palabras (5 Páginas) • 153 Visitas
En 1920 el matemático Von Mises presenta un nuevo concepto de probabilidad, que corresponde a un límite especial, cuando n tiende a infinito, de la frecuencia relativa o cociente de dividir el número de veces o frecuencia absoluta v que aparece en un suceso S por el número de veces n que se realiza un determinado experimento o prueba, es decir:
En el ejemplo del dado, la probabilidad de Von Mises se calcularía arrojando el dado un gran número de veces y calculando para cada tirada el cociente del número de casos en que ocurre el suceso “número par de puntos” por el número de tiradas; al crecer n se encontrará cada vez mayor estabilidad de la frecuencia, que oscilará alrededor de 0’5 si el dado es correcto.
Los tratadistas del Cálculo de Probabilidades recogieron la idea de Von Mises como un postulado empírico, al que denominaron la ley empírica del caso y tal idea la ha recogido la moderna Estadística no como un postulado, sino como una base o imagen empírica que han tenido presente los estadísticos que han elaborado teorías formales basadas en el concepto de frecuencia.
Se considera al estadístico ruso Kolmogoroff como el creador de dichas teorías frecuencialistas de la probabilidad. Para construir una teoría frecuencialista se parte, en general, del concepto de experimento aleatorio que corresponde “al que puede realizarse en las mismas condiciones un número de veces tan grande como se quiera, sin que pueda predecirse -en ningún caso- cuál ha de ser el resultado final en una realización aislada de dicho experimento”. Al realizar un experimento se observa la presentación o no de un suceso S y ante una sucesión indefinida de experimentos se tiene, sucesivamente, un nuevo valor de la frecuencia relativa v/n; la base empírica que Cramer denomina regularidad estadística consiste en aceptar que pese al comportamiento irregular de los resultados individuales, la frecuencia relativa presenta una regularidad al realizar el experimento un gran número de veces.
Después de establecer la anterior terminología y de aceptar la idea de regularidad estadística se puede formular una axiomática que fundamente el concepto de probabilidad, cuyo primer axioma podría ser el que sigue: “A todo suceso S, originado por la realización de un experimento aleatorio, le corresponde un número P(S) que se denomina probabilidad del suceso S”. Este axioma como tal puede aceptarse de una manera abstracta, pero la ciencia que se construya a partir de él tendrá un mayor interés práctico si se tiene en mente aquella idea de frecuencia relacionada con el concepto de regularidad estadística.
Von Mises (1926) introduce la noción de “colectivo” para caracterizar el concepto de frecuencia relativa; por colectivo entiende una sucesión de un número grande de observaciones idénticas o experimentos, conduciéndonos cada uno de éstos a un resultado numérico determinado y verificando esta sucesión de resultados numéricos las siguientes condiciones:
a) Aleatoriedad.
b) Existencia del límite de frecuencias relativas.
Define a continuación un grupo de operaciones en el conjunto de colectivos de manera que el límite de la frecuencia relativa (probabilidad) sea invariable
Andréi Nikoláievich Kolmogorov
En 1933 fue nombrado director del Instituto de Matemáticas. En el mismo año publicó su obra titulada "Los fundamentos de la teoría de la probabilidad", siendo éste el primer intento de tratar de forma rigurosa esta materia. Kolmogorov fue el constructor de una axiomática para el cálculo de probabilidades. Su idea fundamental es considerar la estrecha relación que existe entre el concepto de frecuencia relativa de un suceso y su probabilidad, cuando el número de pruebas es muy grande. Basándose en esta relación, construyó un sistema de axiomas fundamentados en las propiedades de las frecuencias relativas.
“Las
...