Dentro del primer paso que se puede dar hacia los modelos dinámicos, es decir, modelos que varían con el tiempo, está el estudiar las cadenas de Markov que es el modelo dinámico más sencillo y simple que puede darse.
Aquí de lo que se trata es de obtener una muestra de un determinado evento y analizarla, suponiendo que cada estado depende única y exclusivamente del estado anterior y que no tiene ningún otro tipo de memoria.
Veamos un ejemplo.
Supongamos que estamos analizando las clases sociales de una determinada nación y obtenemos que tenemos una matriz que nos dice si los padres de una persona a la edad de 40 años eran de una determinada clase, cuál es la probabilidad de que su hijo pertenezca a una determinada clase a la edad de 40 años.
Imaginemos que esas probabilidades son las que nos aparecen en la imagen 1.
Lo que tenemos que hacer es analizar estos datos para ver todos los conocimientos que podemos sacar desde el punto de vista sociológico.
Veamos cómo nos ayuda nuestro amigo R.
La carga de los datos se hace de modo sencillo:
Con esto, podemos empezar a trabajar.
Imaginemos que actualmente tenemos una distribución de (5%,60%,35%) para las 3 clases y nos preguntamos cuál será la distribución dentro de 3 generaciones. Lo podemos resolver de esta manera:
Obteniendo que sería un modelo de creador de riqueza para las clases altas, y que permite ir abandonando las clases bajas pero a un ritmo muy lento.
Podemos preguntarnos por ejemplo, una persona de clase baja, donde podría estar dentro de 3 generaciones, con R podemos saberlo y obtener un vector de probabilidades.
Lo que significa que de cada 100 personas de clases baja, en 3 generaciones, sólo 28 de sus bisnietos serán todavía de clase baja.
Y lo mismo podemos hacer para la clase alta y la clase media.
De aquí podemos extraer el llamado concepto “steady”, que es los valores en torno a los cuales la sociedad se estabiliza dinámicamente, y que coincide con los autovalores de la matriz.
Con R podemos obtener esos valores de esta manera.
Lo que sucede con estos valores concretos y esta matriz de transición, es que ya no tendríamos evolución, llegando a un equilibrio dinámico. Es decir aunque hubiera personas que cambiaran de una clase a otra, el total del sistema no cambiaría, porque todos los cambios serían compensados. Matemáticamente se puede expresar así:
Con la orden “plot”, podemos visualizar el estado de transición de la matriz.
Un resumen de todo lo que contiene la cadena de Markov, nos la puede dar la orden “summary”
En donde todas las clases son cerradas, porque no hay estado que no se pueda alcanzar en un número finito de pasos. Todas las clases son recurrentes, ya que siempre podemos volver un número infinito de veces a cualquier clase de la que partamos. Y no tiene ningún estado transiente, porque es un suceso seguro que en un número finito de pasos que siempre se vuelva al estado del de que partió. Es irreducible, porque todos los estados son accesibles desde cualquier otro. Y el número de estados absorbente, que son como agujeros negros, de los que nunca se sale es cero.
Las cadenas de Markov pueden ser aplicadas tanto a casos de marketing, como para ver el ciclo de vida que un cliente puede tener en la empresa, aunque su principal limitación es que la matriz de transición tendría que ser constante a lo largo de un periodo de tiempo.
También te puede interesar:
–Nuestro amigo R: Introducción al análisis de redes
–Nuestro amigo R: análisis de supervivencia
–Nuestro amigo R: reglas de asociación
–Nuestro amigo R: regresiones censuradas
Autor: Pedro José Jiménez, profesor del Máster en Big Data y Business Intelligence