Claudia Antonini
Noviembre 2020
Definir Procesos de Poisson Homogéneo.
Deducir a partir del proceso de Poisson Homogéneo el proceso estocástico de los tiempos entre llegadas.
Enunciar, distinguir y demostrar la equivalencia de las dos definiciones de los procesos de Poisson Homogéneos, la operativa y la validadora.
Visualizar los aspectos relacionados con la validación de un proceso de Poisson homogéneo a partir de data simulada y real en el contexto de las operaciones propias de la ingeniería industrial.
Definir y visualizar los tiempos entre llegadas y de llegadas de un proceso de Poisson Homogéneo simulado.
Un proceso estocástico es una colección de variables aleatorias
\[ \{X(\alpha), \alpha \in T\} \]
indexadas por un parámetro \( \alpha \) que toma valores en un conjunto de parámetros T.
Las variables aleatorias toman valores en un conjunto \( S \) que llamaremos conjunto de estados del proceso estocástico. El conjunto \( T \) en el cual las variables aleatorias están indexadas lo interpretaremos como el tiempo.
\[ T=\{0,1,2,\ldots\} \]
para lo cual escribimos \( \{X_n, n\geq 0\} \) en lugar de \( \{X(\alpha), \alpha \in T\} \)
Con conjunto de estados \( S \). Algunas veces \( S \subseteq \{0,1,\ldots\} \) es discreto. Otras veces es continuo \( S \subset (-\infty,\infty) \)
El monitoreo del proceso puede ser a tiempo continuo:
\[ T=[0,\infty) \]
para lo cual escribimos
\[ \{X(t), t \geq 0\} \]
en lugar de \( \{X(\alpha), \alpha \in T\} \)
Con conjunto de estados \( S \) continuo o discreto. Recordemos que el conjunto de estados es la imagen de cada variable aleatoria \( X(t) \).
Se dice que un proceso estocástico \( \{N(t), t \geq0\} \) es un proceso de conteo si \( N(t) \) representa el número total de “eventos” que han ocurrido en el intervalo \( (0,t] \). Debe satisfacer:
\( N(t) \geq 0 \)
\( N(t) \) toma únicamente valores enteros positivos
Si \( s < t \), entonces \( N(s) \leq N(t) \)
Para \( s < t, N(t) - N(s) \) es igual al número de eventos que han ocurrido en el intervalo \( (s,t] \)
Se dice que un proceso estocástico \( \{N(t), t \geq0\} \) tiene incrementos estacionarios si:
En otras palabras, las distribuciones de las variables aleatorias \( N(t+s)-N(s) \) y de \( N(t) \) son las mismas indistintamente de dónde se encuentre el intervalo de tiempo \( (s, s+t] \).
En este caso, diremos que \( s \) es la posición del intervalo de tiempo y del incremento y \( t \) su longitud o duración.
Se dice que el proceso de conteo \( \{N(t), t \geq0\} \) es un Proceso de Poisson parámetro \( \lambda \), \( PPH(\lambda) \), con \( \lambda > 0 \) si:
\[ \begin{align*} &\text{1) } N(0)=0\\ &\text{2) }\{N(t), t\geq 0\} \text{ tiene incrementos disjuntos independientes}\\ &\text{3) }P(N(t+s)-N(s) = n)=e^{- \lambda t} \frac{(\lambda t)^n}{n!}\\ \end{align*} \]
para \( n=0,1,2,\ldots \)
Observe que cuando \( t=1 \), el proceso de Poisson parámetro \( \lambda t \) se reduce a la conocida variable aleatoria Poisson parámetro \( \lambda \).
Observe que aquí el proceso se monitorea en tiempo continuo \( T=[0,\infty) \), pero el conjunto de estados \( S=\{0,1,2,\cdots\} \) es discreto
\( \lambda = \) 10 llegadas por hora.
Supongamos que los clientes llegan a un banco de acuerdo con \( PPH (\lambda) \) con \( \lambda = 10 \) clientes/hora.
El valor esperado de clientes que llegan al banco durante un día de 8 horas es:
\[ E[N(8)]=80 \text{ clientes .} \]
La distribución del número de clientes atendidos durante un día de 8 horas es:
\[ N(8)\sim Poiss(8(10)) = Poiss(80) \]
En otras palabras, la función de probabilidad de masa de \( N(8) \) viene dada por:
\[ P(N(8)=k) = \frac{e^{-80} (80)^k}{k!} \qquad k=0,1,2,\ldots \]
La probabilidad de que ningún cliente llegue al banco entre la 1:00 P.M: y la 1:06 PM se calcula así:
Por la estacionariedad de los incrementos, la probabilidad requerida puede calcularse como sigue:
\[ \begin{align*} P(N(5.1)-N(5)=0)=&P(N(0.1) = 0)\\ =& e^{-10(0.1)}\\ =& e^{-1} \approx 0.3678 \end{align*} \]
Cuidado que si los intervalos de tiempo sobre el cual están definidos los incrementos no son disjuntos, entonces los incrementos son variables aleatorias no independientes.
La probabilidad requerida asumiendo que el banco abre a las 8:00 AM,
\[ P[N(5.1)-N(5)=1, N(5.2)-N(5.05)=2] \]
Pero podríamos colocar \( t=0 \) a la 1:00 PM para simplificar la cuenta. Es decir, la probabilidad requerida entonces podría escribirse así:
\[ P[N(0.1)-N(0)=1, N(0.2)-N(0.05)=2] \]
Como los intervalos de tiempo \( (0, 0.1] \) y \( (0.05, 0.2] \) no son disjuntos, sus incrementos \( N(0.1)-N(0)=1 \) y \( N(0.2)-N(0.05) \) no son independientes.
Por lo tanto, debemos disjuntizar los intervalos dados en los siguientes \( (0, 0.05] \), \( (0.05, 0.1] \) y \( (0.1, 0.2] \) de la siguiente manera:
\[ \begin{align*} &P\left[N(0.1)=1, N(0.2)-N(0.05)=2\right]\\ &\text{ Caso No.1 }\\ &=P\left[N(0.05)=0, N(0.1)-N(0.05)=1, N(0.2)-N(0.1)=1\right]\\ &\text{ Caso No. 2 }\\ &+ P\left[N(0.05)=1, N(0.1)-N(0.05)=0, N(0.2)-N(0.1)=2\right]\\ \end{align*} \]
Ahora como los intervalos de tiempo sobre los cuales están definidos los incrementos son disjuntos, podemos garantizar la independencia de los incrementos:
\[ \begin{align*} &P\left[N(0.05)=0, N(0.1)-N(0.05)=1, N(0.2)-N(0.1)=1\right]\\ &+ P\left[N(0.05)=1, N(0.1)-N(0.05)=0, N(0.2)-N(0.1)=2\right]\\ &=P[N(0.05)=0]P[N(0.1)-N(0.05)=1]P[N(0.2)-N(0.1)=1]\\ &+ P[N(0.05)=1)P[N(0.1)-N(0.05)=0]P[N(0.2)-N(0.1)=2]\\ \end{align*} \]
Podemos usar la estacionariedad de los incrementos:
\[ \begin{align*} P(N(t+s)-N(s) = n) =& P(N(t)=n)\\ =&e^{- \lambda t} \frac{(\lambda t)^n}{n!} \end{align*} \]
\[ \begin{align*} &P[N(0.1)=1, N(0.2)-N(0.05)=2]\\ &=P[N(0.05)=0]P[N(0.1)-N(0.05)=1]P[N(0.2)-N(0.1)=1]\\ &+ P[N(0.05)=1]P[N(0.1)-N(0.05)=0]P[N(0.2)-N(0.1)=2]\\ &\text{ por estacionariedad de los incrementos }\\ &=P[N(0.05)=0]P[N(0.05)=1]P[N(0.1)=1]\\ &+ P[N(0.05)=1]P[N(0.05)=0]P[N(0.1)=2]\\ &=\frac{3}{4}e^{-2} \end{align*} \]
Considere un proceso de Poisson Homogéneo parámetro \( \lambda \).
Denotemos por
\[ T_{1} = \text{ tiempo donde ocurre la primera llegada} \]
y para \( n > 1 \),
\[ T_{n}= \text{ tiempo entre las llegadas $n-1$ y $n$} \]
Llamaremos a
\[ \{T_n, n\geq 1\} \]
la sucesión de los tiempos entre llegadas de un proceso de Poisson homogéneo.
Observe que \( \{T_n, n\geq 1\} \) es un proceso estocástico monitoreado a tiempo discreto con conjunto de estados continuo.
Las distribuciones de los tiempos de llegada
\[ P(T_{n} \leq t) \quad \forall \quad n \geq 1 \]
a partir del Proceso de Poisson Homogéneo que los genera.
\[ P(T_1 > t) = P(N(t)=0) = e^{- \lambda t} \]
Por lo tanto,
\[ T_1 \sim exp(\lambda) \]
Para calcular la distribución de \( T_{2} \), el tiempo entre la llegada del primer cliente y del segundo debemos condicionar con respecto al momento en el que llegó el primer cliente, \( T_{1} \), de la siguiente manera:
\[ P(T_2 > t) = \int_{0}^{\infty}P(T_2 > t | T_1 = s)f_{T_{1}}(s)ds \]
donde,
\[ \begin{align*} P(T_2 > t | T_1 = s) &= P\{0 \text{ eventos en } (s, s+t] | T_1=s\} \\ =& P\{0 \text{ eventos en }(s,s+t]\} \\ =& P(N(s+t)-N(s)=0)\\ &\text{ por la estacionariedad de los incrementos }\\ =& P(N(t)=0)\\ =& P\{N(t)=0\} \\ =& e^{-\lambda t} \end{align*} \]
Observe que,
\[ P(T_2 > t | T_1 = s)= e^{-\lambda t} \]
no depende de \( s \).
Es decir, \( T_{2} \) no depende del lugar donde ocurra \( T_{1} \).
Por lo que \( T_{1} \) y \( T_{2} \) son independientes
\[ \begin {align*} P(T_2 > t)=& \int_{0}^{\infty}P(T_2 > t | T_1 = s)f_{T_{1}}(s)ds\\ =& \int_{0}^{\infty}e^{-\lambda t}\lambda e^{-\lambda s} ds \\ =& e^{-\lambda t} \int_o^{\infty} \lambda e^{-\lambda s} ds \\ =& e^{-\lambda t} \\ \end {align*} \]
Por lo que hemos demostrado que,
\[ T_2 \sim exp(\lambda) \]
y
\[ T_{2} \text{ es independiente de } T_{1} \]
Un argumento inductivo nos permitiría demostrar que,
\[ \{T_{n}, n\geq 1 \} \]
la sucesión de los tiempos entre llegadas de un \( PPH(\lambda) \) es una sucesión de variables aleatorias independientes e idénticamente distribuidas exponenciales parámetro \( \lambda \).
Sea \( S_{n}= \) el tiempo de llegada del n-ésimo evento
\[ S_{n}=\sum_{i+1}^n T_{i} \quad n \geq 1 \]
\[ S_{n} \sim Gamma(n,\lambda)=Erlang(n,\lambda) \]
\[ f_{S_{n}}(t)= \lambda e^{-\lambda t} \frac{(\lambda t)^{n-1}}{(n-1)!} \]
\[ \begin{align*} F_{S_n}(t) &= P(S_n \leq t) \\ &= P(N(t) \geq n) \\ &= \sum_{j=n}^{+ \infty} e^{-\lambda t} \frac{(\lambda t)^j}{j!} \end{align*} \]
Asuma que taxis llegan como un \( PPH(\lambda=10/hora) \) a una parada. Cada taxi lleva exactamente un pasajero y no más. Tu eres el primero en la cola de los pasajeros, ¿cuál es la probabilidad de que te toque esperar por más de 15 minutos?
Sea \( T_{1} \) el tiempo de llegada desde \( t=0 \) hasta que llega el primer taxi.
La probabilidad requerida es:
\[ P\left(T_{1} > \frac{1}{4}\right)= e^{-\frac{10}{4}}= 0.082085 \]
[1] 0.082085
Supongamos que ahora eres el tercer pasajero en cola. ¿Cuál es la probabilidad que te toque esperar más de 30 minutos?
Sean \( T_{i} \) el tiempo entre llegadas de los taxis \( i-1 \) y \( i \) para n=1,2,3.
Y sea \( S_{n}\sum_{i=1}^{n}T_{i}\sim Erlang(n,10) \)
La probabilidad requerida es:
\[ \begin{align*} P\left(T_{1}+T_{2}+T_{3}>\frac{1}{2}\right)=&P\left(S_{3}>\frac{1}{2}\right)\\ =& P\left[N\left(\frac{1}{2}\right) < 3\right]\\ =& \sum_{i=0}^{2}P\left[N\left(\frac{1}{2}\right) = i\right]\\ =& e^{-5}+5e^{-5}+\frac{25}{2}e^{-5}\approx 0.003 \end{align*} \]
ppois(2,10)
[1] 0.002769396
Se dice que el proceso de conteo \( \{N(t), t \geq0\} \) es un Proceso de Poisson Homogéneo con tasa de llegada \( \lambda > 0 \), si satisface que:
\[ \begin{align*} &\text{1) } N(0)=0\\ &\text{2) } \{N(t), t\geq 0\}\\ &\text{posee incrementos estacionarios e independientes}\\ &\text{3) }P(N(h)=1) = \lambda h + o(h)\\ &\text{4) }P(N(h) \geq 2)= o(h) \end{align*} \] en donde diremos que una función \( f(h)=o(h) \) si satisface que \( \lim_{n \to 0} \frac{f(h)}{h}=0 \)
Las dos definiciones de Procesos de Poisson Homogéneos, la computacional y la validadora son equivalentes.
B
[-0.006,0.6] (0.6,1.2] (1.2,1.8] (1.8,2.4] (2.4,3] (3,3.6]
16 16 15 23 18 14
(3.6,4.2] (4.2,4.8] (4.8,5.4] (5.4,6.01]
15 21 24 20
Número de intervalos mínimo para que todos los intervalos tengan a lo mucho una sola observación adentro.
[1] 87120
[1] 30.33333
Las dos definiciones de Procesos de Poisson Homogéneos, la computacional y la validadora son equivalentes.
Prueba:
Definición Validadora \( \implies \) Definición Computacional
Definamos:
\[ P_{n}(t)\equiv P(N(t)=n) \]
Comenzaremos por determinar \( P_{0}(t)=P(N(t)=0) \).
Para lo cual, se desea plantear una ecuación diferencial cuya solución sea dicha probabilidad. Para hallar su derivada invocaremos a su cociente incremental
\[ P_{0}´(t)\equiv \lim_{h\rightarrow 0}\frac{P_{0}(t+h)-P_{0}(t)}{h} \]
en caso dicho límite exista.
Comencemos por calcular \( P_{0}(t+h) \)
\[ \begin{align*} P_{0}(t+h) &\equiv P[N(t+h)=0] \\ & \text{ disjuntizando}\\ &= P[N(t)=0, N(t+h)-N(t)=0] \\ & \text{ por independencia de 2) def. validadora}\\ &= P[N(t)=0] P[N(t+h)-N(t)=0] \\ &\text{ por estacionariedad 2) def. validadora)}\\ &= P[N(t)=0] P[N(h)=0] \\ &= P_{0}(t)(1-P(N(h)>0)) \\ &= P_{0}(t)(1-P(N(h)=1) - P(N(h) \geq 2)) \\ & \text{ usando 3) y 4) de la definción validadora}\\ &= P_{0}(t)(1-\lambda h + o(h)) \quad \therefore \end {align*} \]
\[ \begin{align*} \frac{P_{0}(t+h)-P_{0}(t)}{h} &= \frac{P_{0}(t)(1-\lambda h + o(h))-P_{0}(t)}{h} \\ &= \frac{-\lambda P_{0}(t) h + P_{0}(t)o(h)}{h} \\ &= -\lambda P_{0}(t)+ P_{0}(t)\frac{o(h)}{h} \qquad h\rightarrow 0 \\ &= -\lambda P_{0}(t) \end{align*} \]
\[ P_{0}'(t)=\lim_{h\to 0} \frac{P_{0}(t+h)-P_{0}(t)}{h}=-\lambda P_{0}(t) \]
\[ \frac{P_{0}'(t)}{P_{0}(t)}=-\lambda \]
la cuál es una ecuación diferencial en variables separables.
Integrando ambos lados con respecto a \( t \), obtenemos que:
\[ \begin{align*} \log{(P_{0}(t))} =& -\lambda t + c \\ &\text{tomando exponencial a ambos lados}\\ P_{0}(t) =& k e^{-\lambda t}\\ &\text{condición inicial}\\ P_{0}(0)=&P(N(0)=0)=1 \implies k=1\\ \therefore P_{0}(t)=& P(N(t)=0) = e^{-\lambda t} \end{align*} \]
como queríamos demostrar en el caso \( n=0 \).
Similarmente, para \( n \geq 1 \),
\[ \begin{align*} &P_{n}(t+h)=P(N(t+h)=n)\\ &\text{ disjuntizando el intervalo } (0,t+h]\\ =& P(N(t)=n,N(t+h)-N(t)=0) \\ +& P(N(t)=n-1,N(t+h)-N(t)=1) \\ +& \sum_{k=2}^{n}P(N(t)=n-k,N(t+h)-N(t)=k)\\ \end{align*} \]
Usando la independencia de los incrementos definidos sobre intervalos de tiempo disjuntos y su estacionariedad cuyas porpiedades están garantizadas de 2) de la definición validadora:
\[ \begin{align*} \therefore P_{n}(t+h) =& P_{n}(t)P_{0}(h) + P_{n-1}(t)P_{1}(h)+ \sum_{k=2}^{n}P_{n-k}(t)P_{k}(h)\\ \end{align*} \]
Tenemos que por 3) \( P_{1}(h)=P(N(h)=1)=\lambda h + o(h) \), por 4) \( P_{k}(h)=P(N(h)=k)=o(h) \) para todo \( k\geq 2 \) y por el caso \( n=0 \) \( P_{0}(h)=e^{-\lambda h} \), por lo que:
\[ \begin{align*} \therefore P_{n}(t+h) =& P_{n}(t)P_{0}(h) + P_{n-1}(t)(\lambda h + o(h))+ o(h)\\ =& P_{n}(t)P_{0}(h) + P_{n-1}(t)\lambda h + o(h)\\ =& P_{n}(t)e^{-\lambda h} + P_{n-1}(t)\lambda h + o(h)\\ \end{align*} \]
\[ \begin{align*} \frac{P_{n}(t+h)-P_{n}(t)}{h} =& \left(\frac{e^{-\lambda h}-1}{h}\right) P_{n}(t)+\lambda P_{n-1}(t) + \frac{o(h)}{h} \end{align*} \]
Tomando el límite cuando \( h\rightarrow 0 \), nos queda la siguiente ecuación diferencial lineal, que al ser multiplicada por el factor integrante \( e^{\lambda t} \), convierte la ecuación en una ecuación en variables separables:
\[ \begin{align*} &P_{n}'(t)= -\lambda P_{n}(t)+\lambda P_{n-1}(t) \\ &e^{\lambda t}[P_n'(t) + \lambda P_n(t)] = \lambda e^{\lambda t} P_{n-1}(t)\\ & \therefore \frac{d}{dt}[e^{\lambda t}P_n(t)] = \lambda e^{\lambda t} P_{n-1}(t) \quad \bigstar \end{align*} \]
Por \( \bigstar \) tenemos que para \( n=1 \)
\[ \begin{align*} &\frac{d}{dt}[e^{\lambda t}P_{1}(t)]=\lambda e^{\lambda t}P_{0}(t)=\lambda\\ &e^{\lambda t}P_1(t)=\lambda t + c\\ &P_1(t)=(\lambda t + c)e^{-\lambda t}\\ &P_{1}(0)=P(N(0)=1)=0 \quad \Rightarrow c=0\\ &P_{1}(t)=\lambda t e^{-\lambda t} \end{align*} \]
como queríamos demostrar.
Queremos probar que \( P_{n}(t)=\frac{(\lambda t)^n e^{-\lambda t}}{n!} \),
Asumamos cierto como hipótesis inductiva que:
\[ \frac{d}{dt}(e^{\lambda t}P_n(t))=\frac{\lambda (\lambda t)^{n-1}}{(n-1)!} \]
\[ \begin{align*} &\Rightarrow e^{\lambda t}P_{n}(t)= \int \frac{\lambda (\lambda t)^{n-1}}{(n-1)!} dt\\ &= \frac{\lambda^n}{(n-1)!} \frac{t^n}{n} + c = \frac{(\lambda t)^n}{n!} + c\\ &\text{ calculando la condición inicial }\\ &P_{n}(0)=P(N(0)=n)=0 \implies c=0\\ &\therefore P_{n}(t)=e^{-\lambda t}\frac{(\lambda t)^n}{n!} \\ \end{align*} \] como queríamos demostrar.
\( \therefore \) definición validadora de procesos de Poisson homogéneos \( \implies \) la computacional.
La otra implicación queda como ejercicio pues es sencilla.