ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Estadística (introducción, probabilidad, variables aleatorias, principales distribuciones de probabilidad [poblacional]).


Enviado por   •  29 de Mayo de 2016  •  Resumen  •  2.813 Palabras (12 Páginas)  •  448 Visitas

Página 1 de 12

Teoría de Estadística

Unidad I

Cosas importantes

Variables:

  • Cualitativas  las que no tienen valores numéricos ni pueden ordenarse
  • Cuasi-cuantitativas  cualitativas que pueden ser ordenadas
  • Cuantitativas  numéricas

El muestreo aleatorio simple es el diseño muestral en el cual n unidades distintas son seleccionadas de entre las N unidades poblacionales, de forma que cada posible combinación de unidades tiene la misma probabilidad de ser elegida.

¿Gráficos de barras o histogramas? Utilizamos gráficos de barras e histogramas cuando la variable bajo estudio es cuantitativa continua o discreta y, por comodidad, sus valores se agrupan en clases, es decir, valores continuos (franjas de edades, alturas, pesos, etc.). Para variables cualitativas no empleamos histogramas sino gráficos de barras. No debemos discutir la forma de la distribución de un gráfico de barras.

Precisión. Se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la variabilidad es la desviación estándar de las mediciones y la precisión se puede estimar como una función de ella. (Más preciso si hay menos dispersión)

Exactitud. Se refiere a qué tan cerca del valor real se encuentra el valor medido. En términos estadísticos, la exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el sesgo más exacta es la estimación. La exactitud de un resultado se expresa mediante el error absoluto que es la diferencia entre el valor experimental y el valor verdadero. (Más exacto cuánto más cerca de la media estén sin importar que tan cerca estén unos de otros)

Unidad II

Sucesos complementarios → el evento que ocurre cuando no ocurre A, es decir Ā (complemento de A).

Leyes de Morgan provienen del álgebra de Boole y relacionan la unión e intersección de sucesos complementarios:

[pic 1]

Sucesos mutuamente excluyentes → sucesos que no pueden ocurrir simultáneamente (la intersección es conjunto vacío, P(A) ∩ P(B) = Ø)

Probabilidad Clásica → supone que todos los sucesos elementales de un experimento son igualmente posibles. P(A)=nA/n (donde nA → número de veces que  sucede A, n → número de casos posibles)

Definición frecuencial de probabilidad → La probabilidad se define como el número de veces que ocurre un suceso dividido entre el número total de veces que se realiza el experimento → P(A)=nA/n

Probabilidad subjetiva → Refleja el grado de creencia respecto a la posibilidad de ocurrencia de un evento particular

Propiedades de la Probabilidad

  • La probabilidad siempre está entre 0 y 1 ( 0 < P(A) < 1)
  • P(Ø) = 0
  • P(A) + P(Ā) = 1
  • P(A  B) = P(A) + P(B) - P(A ∩ B)

Si A y B son mutuamente excluyentes: P(A  B) = P(A) + P(B)

Lo mismo para más sucesos

Probabilidad condicional → probabilidad condicional de A dado B (probabilidad de A habiendo ocurrido B), P(A/B) = P(A ∩ B)/P(B).

Los sucesos A1, A2,…, Ai constituyen una partición del espacio muestral S si A1, A2,…, Ai son mutuamente excluyentes y la unión de A1, A2,…, Ai es el espacio muestral S.

La probabilidad de la intersección de dos eventos cualesquiera se denomina probabilidad conjunta. Pueden mostrarse en una tabla de probabilidades conjuntas.

Sucesos Independientes → Dos sucesos A y B son independientes si la ocurrencia de uno de ellos no influye sobre la probabilidad de ocurrencia del otro, es decir, P(A/B) = P(A) y P(B/A) = P(B). Admitiendo independencia, P(A ∩ B) = P(A) ∙ P(B) y P(A  B) = P(A) + P(B) - P(A) ∙ P(B).

MUTUAMENTE EXCLUYENTES VS INDEPENDIENTES

Dos sucesos son mutuamente excluyentes si no pueden ocurrir al mismo tiempo, es decir su intersección es el conjunto vacío.

Dos sucesos son independientes si la ocurrencia de uno cualquiera de ellos no afecta la probabilidad de ocurrencia del otro.

Dos sucesos no pueden ser, a la vez, mutuamente excluyentes e independientes.

Teorema de Bayes  ; con i = 1, 2, 3,… n[pic 2]

En general, si sabemos que una determinada “causa” puede producir un “efecto”, el teorema de Bayes nos permitirá obtener, si se presenta el “efecto”, una medida de la probabilidad de que haya actuado la “causa”.

Unidad III

Una variable aleatoria es una función que asigna un valor numérico a cada resultado de un experimento aleatorio.

X = nombre de la variable (n° de caras en 3 lanzamientos); x= cuando la variable asume un valor (CCC→3)

Cuando una variable aleatoria toma ciertos valores aislados, es discreta; cuando toma todos los valores comprendidos en un intervalo, es continua.

La distribución de probabilidad de una variable aleatoria discreta, X, es una función P(x) que asigna a cada uno de sus valores posibles un número que mide la probabilidad que X sea igual a x. Condiciones:

  • 0 ≤ P(x) ≤ 1
  • La sumatoria de todas las probabilidades debe dar 1 (condición de cierre)
  • Como los distintos valores de X son eventos mutuamente excluyentes, sus probabilidades son aditivas

El conjunto de pares (x, P(x)), recibe el nombre de distribución puntual de probabilidad de la variable aleatoria X y se representa gráficamente mediante un diagrama de bastones.

Si una variable es continua, el conjunto de valores que puede tomar es no numerable. En este caso, lo que generaliza de modo natural el concepto de sumatoria es el concepto de integral (para una variable aleatoria continua P(X = x) = 0, para que la suma infinita no numerable de las probabilidades de todos los valores de la variable no sea infinita). Se introduce entonces el concepto función de densidad de probabilidad, f(x), que verifica las siguientes propiedades:

...

Descargar como (para miembros actualizados) txt (12 Kb) pdf (999 Kb) docx (1 Mb)
Leer 11 páginas más »
Disponible sólo en Clubensayos.com