Matemáticas: Análisis de Markov
Enviado por 250320 • 29 de Noviembre de 2015 • Ensayo • 2.286 Palabras (10 Páginas) • 319 Visitas
ANALISIS DE MARKOV.
Supongamos un sistema tal que, en cualquier momento, presenta uno de los estados posibles de un número finito de estados.
Si se encuentra que la transición de un estado a otro no está predeterminado sino más bien ocurre en función de ciertas probabilidades que dependen de la historia del sistema, el proceso recibe el nombre de proceso estocástico. Si además, estas probabilidades de transición dependen solamente de la historia inmediata del sistema, es decir, si el estado del sistema en una observación cualquiera depende solo de su estado en la observación inmediata anterior, el proceso recibe el nombre de proceso de Markov o Cadena de Markov.
El análisis de Markov es una forma de analizar el movimiento actual de alguna variable, a fin de pronosticar el movimiento futuro de la misma.
Como se supone que el sistema en observación tiene k estados posibles, a los cuales identificamos con 1, 2, 3, ....., k. Para describir las transiciones de un estado a otro, es necesario dar las siguientes definiciones.
Definición 1.- La probabilidad de transición Pij (i, j = 1, 2, 3,.....k) es la probabilidad de que ocurra que, si el sistema está en el estado j en una observación cualquiera, esté en el estado y en la siguiente observación.
Definición 2.- Una matriz de transición P = pij es una matriz cuadrada, con entradas no negativas, en la que la suma de cada columna es igual a la unidad.
Entonces todo proceso de Markov determina a una matriz de transición. A las matrices de transición se les llama también matrices de Markov, matrices de probabilidad o matrices estocásticas.
Definición 3.- Un vector de probabilidad es un vector columna, con entradas no negativas, en el que la suma de sus elementos es igual a la unidad.
Y se puede pronosticar el resultado de una observación futura de un sistema que sea un proceso de Markov, en función de un vector de probabilidad, al aplicar la siguiente definición:
Definición 4.- Se dice que los vectores de probabilidad x(n) para n = 0,1, 2, ....., son los vectores de estado de un proceso de Markov, si la componente de orden i, x i(n) de x(n), es la probabilidad de que en el sistema esté en el estado i cuando se hace la observación n.
En particular, al vector x(0) se le llama vector del estado inicial del proceso de Markov.
El proceso de Markov tiene varios órdenes, y el primero depende de los resultados del último acontecimiento, y no de cualquier comportamiento previo para la probabilidad del acontecimiento siguiente.
Un análisis de Markov de segundo orden supone que las selecciones de marcas específicas para el próximo periodo dependerán de las selecciones de marcas hechas durante los dos periodos anteriores. De modo semejante, un proceso de tercer orden, estudia las preferencias durante los tres últimos periodos, a fin de pronosticar su comportamiento durante el periodo siguiente hacia determinadas marcas.
Para ilustrar el proceso de Markov, se presenta un problema en el que los estados de actividades son marcas, y las probabilidades de transición expresan la probabilidad de que los consumidores vayan de una marca a otra.
Consideremos tres marcas de shampoo A, B, C, la tabla siguiente:
NUMERO DE CLIENTES
MARCA JUNIO 1° JULIO 1°
A 200 220
B 500 490
C 300 290
TOTAL 1000 1000
ilustra el movimiento de clientes de una marca a otra en un periodo de un mes.
Al observar la tabla anterior se puede inferir que un total de 20 personas cambiaron durante el mes: 10 de B a A y 10 de C a A. Sin embargo al realizar un análisis más detallado lo anteriormente dicho no resulta cierto, ya que es necesario observar los cambios que se han dado entre las tres marcas de shampoo.
La siguiente tabla muestra los cambios ocurridos en el mes de junio
CLIENTES DE CLIENTES DE
MARCA | 1° DE JUNIO | GANANCIA | PERDIDA | 1° DE JULIO |
A | 200 | 60 | 40 | 220 |
B | 500 | 40 | 50 | 490 |
C | 300 | 35 | 45 | 290 |
Al observar con detenimiento la relación anterior notamos que la marca A no sólo está ganando 20 nuevos clientes sino que más bien, gana 60 clientes de las otras dos marcas y pierde 40 clientes con las otras dos marcas. La marca B de la misma manera, no solo pierde 10 clientes al mes; más bien cada mes gana 40 clientes y pierde 50 clientes con las otras dos marcas, análogamente para la marca C tenemos que se están ganando 35 clientes y se están perdiendo 45 con las otras marcas.
Si la marca A, al notar que está ganando 20 clientes nuevos cada mes, se concentra exclusivamente en sus esfuerzos para atraer nuevos clientes quitándoselos a sus competidores. Lo que en realidad está haciendo es dejar de ver su propia pérdida de 40 clientes al mes. Quizá algún intento de reducir su pérdida de 40 clientes seria tan efectiva monetariamente como sus esfuerzos de capturar clientes adicionales de A y de C.
Lo que se necesita realizar es un análisis más detallado respecto a las tasas de ganancias y pérdidas con todos los competidores.
...