U2A7

Jaime Corral R.

30/11/2020

Problema

Tomar datos y aplicar Markov para hacer predicciones

En una población de 10,000 habitantes, 5000 no fuman, 2500 fuman uno o menos de un paquete diario y 2500 fuman más de un paquete diario. En un mes hay un 5% de probabilidad de que un no fumador comience a fumar un paquete diario, o menos, y un 2% de que un no fumador pase a fumar más de un paquete diario. Para los que fuman un paquete, o menos, hay un 10% de probabilidad de que dejen el tabaco, y un 10% de que pasen a fumar más de un paquete diario. Entre los que fuman más de un paquete, hay un 5% de probabilidad de que dejen el tabaco y un 10% de que pasen a fumar un paquete, o menos. ¿Cuántos individuos habrá de cada clase el próximo mes?

#Paquetería

library(markovchain)
## Warning: package 'markovchain' was built under R version 4.0.3
## Package:  markovchain
## Version:  0.8.5-2
## Date:     2020-09-07
## BugReport: https://github.com/spedygiorgio/markovchain/issues

Insertar la matríz de transición

\[ P = \left( {\begin{array}{ccc} 0.93 & 0.05 & 0.02 \\ 0.1 & 0.8 & 0.1 \\ 0.05 & 0.1 & 0.85 \\ \end{array} } \right) \]

Crear la matríz de transición P

P = matrix(c(0.93,0.05,0.02,0.1, 0.8, 0.1, 0.05, 0.1, 0.85),nrow = 3,byrow=TRUE      )
P
##      [,1] [,2] [,3]
## [1,] 0.93 0.05 0.02
## [2,] 0.10 0.80 0.10
## [3,] 0.05 0.10 0.85

Cadena de markov clasificada

mc <- new("markovchain", transitionMatrix=P, states=c("a","b", "c"), name="Cadena 1")

Estructura

str(mc)
## Formal class 'markovchain' [package "markovchain"] with 4 slots
##   ..@ states          : chr [1:3] "a" "b" "c"
##   ..@ byrow           : logi TRUE
##   ..@ transitionMatrix: num [1:3, 1:3] 0.93 0.1 0.05 0.05 0.8 0.1 0.02 0.1 0.85
##   .. ..- attr(*, "dimnames")=List of 2
##   .. .. ..$ : chr [1:3] "a" "b" "c"
##   .. .. ..$ : chr [1:3] "a" "b" "c"
##   ..@ name            : chr "Cadena 1"

Sumario

summary(mc)
## Cadena 1  Markov chain that is composed by: 
## Closed classes: 
## a b c 
## Recurrent classes: 
## {a,b,c}
## Transient classes: 
## NONE 
## The Markov chain is irreducible 
## The absorbing states are: NONE

Diagrama de transición

plot(mc)

Distribución estacionaria

steadyStates(mc)
##              a         b         c
## [1,] 0.5194805 0.2467532 0.2337662