Las variables que se observan a lo largo del tiempo son variables que además del fenómeno aleatorio en cuestión dependen también del tiempo. En este sentido, si queremos establecer distribuciones teóricas para este tipo de variables aleatorias, estas distribuciones tendrán que depender también el tiempo.
Nuestro objetivo será construir modelos que permitan explicar la estructura y realizar predicciones sobre la evolución de variables que son observadas a lo largo del tiempo.Estas variables se pueden encontrar en periodos de tiempo regulares o irregulares, pero en la mayoría de los casos tendremos que emplear periodos de tiempo regulares.
Índice
-
Concepto y principales características de los procesos estocásticos
-
Procesos de Estado Discreto
- Probabilidad de transición o probabilidad de cambio de estado
- Probabilidad de ocupación de estado
- Propiedad de Markov
- Probabilidades de transición estacionarias
- Matriz de probabilidades de transición o matriz de estados
- Matriz de probabilidades de transición o matriz de estados
- Distribución inicial de la cadena
- Distribución de las probabilidades de ocupación de estados en un instante cualquiera
- Ejemplo 1.-
- Ejercicio 2.-
-
Procesos de Estado Discreto
Concepto y principales características de los procesos estocásticos
Definición.- Proceso estocástico
Podemos definir un proceso estocástico como una serie de variables aleatorias ordenadas según un parámetro t que habitualmente es el tiempo { , t ϵ T}.
De este modo, para cada momento t tendremos una variable aleatoria , de manera que se puede interpretar un procesos estocástico como una sucesión de variables aleatorias con características que pueden variar a lo largo del tiempo o permanecer constantes. Nos interesarán más estas últimas.
Podríamos representar esta idea del siguiente modo:
En cada t se representa la función de densidad correspondiente a .
Definición.- Estados
Denominaremos estados a los posibles valores que puede tomar el fenómeno considerado.
Estos estados pueden tener un conjunto de estados discreto o continuo, según la naturaleza del fenómeno observado.
A su vez, el tiempo puede ser también discreto si el fenómeno se presenta en momentos del tiempo determinados, o continuo si el fenómeno puede suceder en cualquier momento.
En base a la naturaleza del parámetro para el que ordena el fenómeno (t) y la naturaleza del conjunto de estados del fenómeno, podemos clasificar a los procesos estocásticos en:
- Proceso estocástico de parámetro continuo, cuando el conjunto T es continuo, .
- Proceso estocástico de parámetro discreto, cuando el conjunto T es discreto, .
- Proceso estocástico de estado continuo, cuando la variable Xt es continua, .
- Proceso estocástico de estado discreto, cuando la variable Xt es discreta, .
Tiempo Discreto | Tiempo Continuo | |
Variable aleatoria discreta | Proceso de estado discreto y tiempo discreto
(Cadena) |
Proceso de estado discreto y tiempo continuo (Proceso de saltos puros) |
Ejemplos: Unidades de producto vendidas mensualmente, número de trabajadores en plantilla cada mes… | Ejemplos: Unidades de producto vendidas hasta el instante t, número de trabajadores en plantilla en el instante t… | |
Variable aleatoria continua | Proceso de estado continuo y tiempo discreto | Proceso de continuo y tiempo continuo |
Ejemplos: Cotizaciones semanales de un determinado activo, precio medio mensual de la gasolina… | Ejemplos: Cotizaciones en tiempo real de un determinado activo, precio de la gasolina en tiempo real… |
Procesos de Estado Discreto
Para los procesos de estado discreto representaremos una secuencia de variables referida al valor del proceso en diferentes instantes tiempo como:
{ }
Donde cada variable tiene una distribución de probabilidad que puede ser igual o diferente de la que tienen el resto de variables. En ocasiones estas variables tienen la misma distribución pero con características diferentes.
Probabilidad de transición o probabilidad de cambio de estado
Definiremos la probabilidad de transición o cambio de estado como la probabilidad de que el momento n se de el estado , sabiendo que en el momento anterior, n-1 se ha dado el estado :
Probabilidad de ocupación de estado
Del mismo modo la probabilidad de ocupación de un estado determinado será simplemente:
Otra probabilidad interesante es la de ocupar un cierto estado condicionado a la información de lo que sucedió en todos los estados anteriores, que escribiremos como:
Propiedad de Markov
Diremos que un proceso tiene la propiedad de Markov cuando la probabilidad de ocupar un determinado estado en el momento n condicionada a toda la información anterior de la serie coincide con la probabilidad de ocupar dicho estado condicionada únicamente al estado que ocupó en el momento anterior, es decir:
Podemos decir en esta situación que un proceso con esta propiedad tiene falta de memoria ya que toda su historia se puede resumir mediante el estado actual.
Las cadenas que cumplen la propiedad de Markov se denominan Cadenas de Markov.
Probabilidades de transición estacionarias
Diremos que las probabilidades de transición son estacionarias si no dependen del momento en concreto en el que nos encontremos, es decir que las probabilidades de pasar de un estado a otro son las mismas para cualquier momento del tiempo.
Para simplificar la notación podemos denotar a las probabilidades de transición como:
Diremos entonces que las probabilidades de transición son estacionarias si no dependen de n.
Ejemplo 1.- Consideremos que el correcto funcionamiento de una determinada maquinaria se revisa diariamente al inicio de la jornada para verificar si esta operativa o no. Estos serán nuestros dos posibles estados: que este operativa (O) o que esté dañada (D).
Diagrama de estados
Si definimos una variable aleatoria , referida al estado de la maquinaria en cada momento y consideramos que toma valor 0 si está dañada y 1 si está operativa podremos definir las siguientes probabilidades:
- Probabilidades de estado:
- Probabilidades de transición:
Partiendo de 0 tendremos:
Partiendo de 1 tendremos:
Matriz de probabilidades de transición o matriz de estados
La matriz de probabilidades de transición o matriz de estados de una cadena de markov es una matriz que recogerá las probabilidades de todas las posibles transiciones entre estados que pueden tener lugar.
En nuestro caso la matriz de transición de estados sería:
Matriz de probabilidades de transición o matriz de estados
En general, si una cadena de markov tiene k posibles estados y probabilidades estacionarias, denotando como a la probabilidad de pasar del estado al estado , la matriz de transición será:
La matriz de transición P nos da las probabilidades de transición de un paso, pero escribirlas en forma matricial nos facilitarán calcular probabilidades de transiciones que impliquen más de un paso. Para obtener la matriz de transición un número superior de pasos simplemente tenemos que elevar la matriz al número de pasos que nos interese. Así la matriz de transición de m pasos será simplemente .
Distribución inicial de la cadena
En este tipo de cadenas no siempre conocemos el estado inicial de proceso con certeza. Si es así, estos valores iniciales se representarán en términos de probabilidad como un vector de ocupación inicial , que tendrá como componentes las probabilidades de estado , para todos los estados j=1,2,…k. Quedará por tanto definido:
Teniendo en cuenta que todas las probabilidades incluidas serán mayores o iguales que 0 y la suma de todas ellas debe ser igual a 1:
y
Distribución de las probabilidades de ocupación de estados en un instante cualquiera
También podemos definir el vector de ocupación para cualquier momento n. Se denominará y tendrá como componentes las probabilidades de estado , para todos los estados j=1,2,…k. Quedará por tanto definido:
Y al igual que , incluye probabilidades mayores o iguales que 0 y cuya suma debe ser igual a 1:
y
En general se cumple que:
Ejemplo 1.-
Para nuestro ejemplo 1, se sabe que si la maquina está dañada, la probabilidad de que continúe dañada al día siguiente es de 0,4, mientras que si está operativa, la probabilidad de que continúe operativa es de 0,9, se pide:
a) Calcule la matriz de transición de un paso de dicha maquinaria.
b) Si se sabe que la máquina hoy estaba dañada, ¿cuál será la probabilidad de que continúe dañada pasado mañana? ¿ Y la probabilidad de que esté operativa?
c) Calcule el porcentaje de días que la máquina está dañada.
Solución.-
a) Matriz de transición de un paso:
b) Si se sabe que la máquina hoy estaba dañada, ¿cuál será la probabilidad de que continúe dañada pasado mañana? ¿ Y la probabilidad de que esté operativa?
La probabilidad de que la máquina continúe dañada pasado mañana será:
La probabilidad de que la máquina este operativa pasado mañana será:
c) Calcule el porcentaje de días que la máquina está dañada.
Pero también
Definiremos: y entonces:
Y además se debe cumplir que x + y = 1 por ser las posibles probabilidades del conjunto de estados del fenómeno.
En realidad nos sobra una ecuación, pero se observa claramente que la primera y la segunda son equivalentes:
Así cuando la cadena alcance el equilibrio, la probabilidad de que la máquina esté dañada será 1/7 y la de que este operativa será 6/7.
Ejercicio 2.-
El departamento de estudios de mercado de una compañía ha estimado que el 60% de los clientes que compran su producto un mes lo vuelven a comprar al mes siguiente, mientras que entre los clientes que no lo compraron en un determinado mes, solo el 30% lo compra. En un determinado mes 500 clientes compraron el producto de un total de 800 clientes potenciales, se pide:
a)Dibujar el diagrama de estados de la cadena de markov del fenómeno.
b)Obtener la matriz de transición de un paso.
c)Si un cliente ha comprado este mes, ¿que probabilidades hay de que compre dentro de 3 meses? ¿Y si no ha comprado?
d)¿Cuántos clientes comprarán el próximo mes?
e)Calcule el número de personas que comprarán en los próximos cinco años y represente gráficamente la serie.
a) Diagrama de estados
b) Matriz de transición de un paso
c) Si un cliente ha comprado este mes, ¿que probabilidades hay de que compre dentro de 3 meses? ¿Y si no ha comprado?
La probabilidad de que un cliente que ha comprado este mes compre dentro de 3 meses será:
La probabilidad de que un cliente que no ha comprado este mes compre dentro de 3 meses será:
d) ¿Cuántos clientes comprarán el próximo mes?
El próximo mes comprarán 390 clientes. Podemos decir que comprarán el 60% de los clientes que ya compraron y el 30% de los que no compraron.
e) Calcule el número de personas que comprarán en los próximos cinco meses y represente gráficamente la serie.
La presentación gráfica de los valores obtenido es:
Como vemos el gráfico presenta una asíntota horizontal que nos indica que la serie tiende a estabilizarse en torno a un valor, o converge a uno valor. Ese valor será el que se corresponda con el porcentaje de compradores a largo plazo que podemos obtener a partir de las probabilidades de estado a largo plazo:
Pero también:
Definiremos: y entonces:
Y se debe cumplir que x + y = 1 por ser las posibles probabilidades del conjunto de estados del fenómeno.
En realidad nos sobra una ecuación, pero se observa claramente que la primera y la segunda son equivalentes:
Si la probabilidad de comprar en general es 0,4285, a largo plazo comprará el 42,85% de la población y no comprará el resto. Es decir que comprarán:
800· 0,4285= 342,85