ANALISIS DE MARKOV
Enviado por ANDRETTY • 11 de Septiembre de 2013 • Tesis • 4.087 Palabras (17 Páginas) • 326 Visitas
ADMINISTRACIÓN Y SEGURIDAD EN REDES
INVESTIGACION (3)
IVAN ANDRES CIFUENTES GUERRA
CERES- UNIMINUTO
FACULTAD DE INGENIERIA DE SISTEMAS
DECIMO SEMESTRE
GUADUAS
2.013
ADMINISTRACIÓN Y SEGURIDAD EN REDES
INVESTIGACION (3)
ELABORADO POR:
IVAN ANDRES CIFUENTES GUERRA
PRESENTADO A:
DIEGO LOPEZ (Tutor)
CERES- UNIMINUTO
FACULTAD DE INGENIERIA DE SISTEMAS
DECIMO SEMESTRE
GUADUAS
2.013
TABLA DE CONTENIDO
ANALISIS DE MARKOV 4
SIMULACION DE MONTECARLO 8
ANÁLISIS BAYESIANO 9
ANALISIS DE ARBOL DE FALLAS ….11
MÉTODO DEL ÁRBOL DE SUCESOS ..12
ANALISIS CAUSA-CONSECUENCIAS 17
ANÁLISIS CAUSA-EFECTO 20
FUENTES CONSULTADAS 21
ANALISIS DE MARKOV
El análisis de Markov, llamado así por los estudios realizados por el ruso Andréi Andréyevich Márkov entre 1906 y 1907, sobre la secuencia de los experimentos conectados en cadena y la necesidad de descubrir matemáticamente los fenómenos físicos.
La teoría de Markov se desarrolló en las décadas de 1930 y 1940 por A.N.Kolmagoron, W.Feller, W.Doeblin, P.Levy, J.L.Doob y otros.
El análisis de Markov es una forma de analizar el movimiento actual de alguna variable, a fin de pronosticar el movimiento futuro de la misma. Este método ha comenzado a usarse en los últimos años como instrumento de investigaciones de mercadotecnia, para examinar y pronosticar el comportamiento de los clientes desde el punto de vista de su lealtad a una marca y de sus formas de cambio a otras marcas, la aplicación de esta técnica, ya no solo se limita a la mercadotecnia sino que su campo de acción se ha podido aplicar en diversos campos.
Cadenas de markov
Es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria, “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.
Clasificación de los estados en una cadena de Markov
Las probabilidades de transición asociadas a los estados juegan un papel importante en el estudio de las cadenas de Markov. Para describir con más detalles las propiedades de una cadena de Markov es necesario presentar algunos conceptos y definiciones que se refieren a estos estados.
Los estados que pueden sucederse a sí mismos y, además, es posible alcanzar, por lo menos, alguno de los restantes desde ellos se llaman estados transitorios.
Un estado tal que si el proceso entra en él permanecerá indefinidamente en este estado (ya que las probabilidades de pasar a cualquiera de los otros son cero), se dice estado absorbente.
De una cadena de Markov que consta de estados transitorios y absorbentes se dice que es una cadena absorbente de Markov.
Si una cadena de Markov contiene algún estado absorbente, la línea de la matriz de transición correspondiente a las probabilidades de transición de dicho estado constará de un 1 en la diagonal principal y ceros en los demás elementos. Será por lo tanto una matriz no regular.
Estudio de las cadenas de Markov
Para poder estudiar las cadenas de Markov absorbentes es preciso reordenar la matriz de transición de forma que las filas correspondientes a los estados absorbentes aparezcan en primer lugar. Así ordenada se dirá que la matriz de transición está en la forma canónica.
Podemos dividir la matriz en forma canónica en cuatro submatrices. La primera es la matriz unidad I, del orden correspondiente. La segunda, la matriz nula. La tercera contiene las probabilidades de paso de estados transitorios a estados absorbentes. La cuarta contiene las probabilidades de estados transitorios a estados transitorios.
Generalizando:
Una cadena de Markov absorbente contiene p estados transitorios y q estados absorbentes. La matriz canónica del proceso presentará el aspecto siguiente:
I: matriz identidad de dimensión q
O: matriz nula de dimensión q x p
Q: matriz de dimensión p x q que contiene las probabilidades de paso de estados transitorios a absorbentes.
M: matriz p x p con las probabilidades de los estados transitorios a estados transitorios.
Se llama matriz fundamental de la cadena de Markov a la matriz resultado de la operación:
F= (I-M)-1
Es decir, a una matriz identidad del mismo tamaño de la matriz de transición le restamos esta y posteriormente, hallamos su inversa, que luego nos será de gran ayuda para calcular probabilidades, y detalles que surgen en el análisis de una de esta matrices.
Procedimiento de una cadena de Markov:
Un proceso de Markov está caracterizado por una función de probabilidad de transición representada por T, llamada matriz de transición, que representa las probabilidades de transito de un estado a otro y un vector de probabilidad de estado inicial que representa el estado inicial del mercado. El procedimiento de la cadena de Markov se detallara a continuación con el ejemplo planteado.
Ejemplo:
La Telefonía móvil de telecomunicación en Colombia: Existen tres operadores: Movistar, Tigo y Comcel.
Vector de estado inicial:
Po = [0,6522; 0,1304; 0,2174]
Matriz de transición:
¿Cómo será la participación en el futuro dentro de 6 meses?
Para estimar la participación de cada uno de los operadores de telefonía dentro de 6 meses lo primero que hay que hacer es multiplicar el vector de estado inicial por la matriz de transición:
Para hallar el valor de T en el periodo 1 se hace lo siguiente:
(0,6522 * 0,6) + (0,1304 * 0,35) + (0,2174 * 0,3) = 0,5015
Para hallar el valor de M en el periodo 1 se hace lo siguiente:
(0,6522 * 0,1) + (0,1304 * 0,4) + (0,2174 * 0,2) = 0,161
Para hallar el valor de C en el periodo 1 se hace lo siguiente:
(0,6522 * 0,3) + (0,1304 * 0,25) + (0,2174 * 0,5) = 0,3275
Entonces
...