1 Introdução

A programação foi realizada na linguagem R (https://www.r-project.org/) , utilizando o IDE RStudio (link).

IDE é o ambiente de desenvolvimento integrado (Em inglês, Integrated Development Environment).

Neste Trabalho, implementamos o Custo Mínimo Esperado (teórico) e o Custo Mínimo Amostral (simulado).

2 Valores Teóricos

A seguir, apresentamos os resultados teóricos para Distãncia Esperada e para o Custo Mínimo Esperado em processos de Poisson independentes.

2.1 Distância Esperada

Considere dois processos de Poisson independentes com taxas de chegada \(\lambda_1\) e \(\lambda_2\), cujos tempos de chegadas são, respectivamente, \(X_1,X_2,\cdots\) e \(Y_1,Y_2,\cdots\). Então, a fórmula

\[ \begin{align} E\big[|X_k-Y_k|\big]=k\bigg(\frac{1}{\lambda_1}-\frac{1}{\lambda_2}\bigg)+2k\bigg(\frac{I_x(k,k+1)}{\lambda_2}-\frac{I_x(k+1,k)}{\lambda_1}\bigg) \tag{1} \end{align} \] é válida para \(r\geq0\), \(k\geq1\) inteiros e \(\lambda_1,\lambda_2>0\).

Sendo \(I_x(a,b)\) a função beta incompleta regularizada aplicada no ponto \(x=\lambda_1/(\lambda_1+\lambda_2)\), com parâmetros \(a\) e \(b\).

Demonstração (Ver dissertação)

E<-function(k,l1,l2){
  
  x<-l1/(l1+l2) 
  
  res<-k*(1/l1-1/l2)+2*k*((1/l2)*pbeta(x,k,k+1)-(1/l1)*pbeta(x,k+1,k))
  
  return(res)
}

2.2 Custo Mínimo Esperado

O Custo Mímino Esperado (Teórico) é dado por

\[ \begin{align} C_{opt}(n,\lambda_1,\lambda_2)=\sum\limits_{k=1}^{n}E[|X_k-Y_k|]\tag{2} \end{align} \]

Custo_teorico<-function(n,l1,l2){
       
                 custo<-numeric(length(n))
       
                      for (j in 1:length(n)){
             
                              custo[j]<-sum(E(1:n[j],l1,l2))
                      
                                    }
                return(custo)
}

2.2.1 Intervalo Teórico para o Custo

Considere dois processos de Poisson independentes com taxas \(\lambda_1>0\) e \(\lambda_2>0\), com \(\lambda_1\geq \lambda_2\) e, respectivos, tempos de chegadas \(X_1,X_2,\cdots X_n\) e \(Y_1,Y_2,\cdots,Y_n\). Então, \[C_{opt}(\lambda_1,\lambda_2,n)=\sum\limits_{k=1}^{n}E\big[|X_k-Y_k\big]\in \big[\;l_n\;,\;s_n\;\big],\] é valido, em que

\[ \begin{align} l_n&=\frac{n(n+1)}{2}\bigg(\frac{1}{\lambda_1}-\frac{1}{\lambda_2}\bigg)+\frac{2}{\lambda_2}\times S(n,\lambda_1,\lambda_2), \;\;\mbox{e}\\\\ s_n&=\frac{n(n+1)}{2}\bigg(\frac{1}{\lambda_2}-\frac{1}{\lambda_1}\bigg)+\bigg(\frac{1}{\lambda_2}+\frac{1}{\lambda_1}\bigg) \times S(n,\lambda_1,\lambda_2), \tag{3} \end{align} \] com \[S(n,\lambda_1,\lambda_2)=\sum_{k=1}^{n}\dfrac{(\;xx'\;)^k}{B(k+1,k)}\;,\quad x=\lambda_1/(\lambda_1+\lambda_2) \quad \wedge \quad x^´=1-x.\]. \(B(k+1,k)\) é a função beta completa com parâmetros \(k+1\) e \(k\).

## Grafico para o Custo Mínimo Esperado com seus limites

G_Int<-function(n,l1,l2){
                        
              L<-length(n) ; x<-l1/(l1+l2) ; y<-1-x
  
              custo<-LI<-LS<-numeric(L)
                    
                 for (i in 1:L) {
    
                      LI[i]<-(n[i]*(n[i]+1)/2)*(1/l1-1/l2)+(2/l2)*sum((x*y)^(1:n[i])/beta(1:n[i]+1,1:n[i]))
    
                      LS[i]<-(n[i]*(n[i]+1)/2)*(1/l2-1/l1)+(1/l2+1/l1)*sum(((x*y)^(1:n[i]))/beta(1:n[i]+1,1:n[i]))
    
                      custo[i]<-sum(E(1:n[i],l1,l2))
                 }
              
  plot(n,custo,type="l",main="Custo Minimo Esperado",ylab=expression(C[opt](n,lambda[1],lambda[2])))
  
  lines(n,LI,col="red") ; lines(n,LS,col="blue")
}

## Plote dos Graficos
v<-seq(10,100,1)
l1<-rep(0.95,4)
l2<-c(0.90,0.92,0.94,0.95)

par(mfrow=c(2,2))

for (i in 1:4) {
 
   G_Int(v,l1[i],l2[i])

   legend("topleft", legend=bquote(lambda[1]==.(l1[[i]]) ~ "," ~lambda[2]==.(l2[[i]])) )
   legend("bottomright",inset=0.02,legend=c("Limite Superior","Custo Exato","Limite Inferior"),
       col=c("blue","black","red"),lty=c(1,1),cex=0.8)
}

Observação : No último gráfico, os limites superior e inferior coincidem, formando um intervalo degenerado .

2.2.2 Função de Distribuição Acumulada Empírica

Seja \(X_1,\cdots,X_n\) uma amostra aleatória de uma Função de Distribuição Acumulada desconhecida \(F\).

Um estimador não-paramétrico de \(F(x)\) é a Função de Distribuição Acumulada Empírica

\[ \begin{align} F_n(x)=\frac{1}{n}\sum\limits_{i=1}^{n}I_{\{x_i\leq x\}}(X_i).\tag{4} \end{align} \]

Como \(I_{(-\infty,x]}(X_1),\cdots,I_{(-\infty,x]}(X_n)\) são variáveis aleatórias i.i.d binárias com

\(P\big(I_{(-\infty,x]}(X_i)=1\big)=F(x)\), então a variável aleatória \(nF_n(x)\) tem distribuição \(Binomial\big(n,F(x)\big)\).

Consequentemente, \(F_n(x)\) é um estimador não viesado (não tendencioso) de \(F(x)\) com Variância e Erro Quadrático Médio (EQM) dados por:

\[ \begin{align} EQM\big[F_n(x)\big]=Var\big[F_n(x)\big]=\frac{F(x)[1-F(x)]}{n}.\tag{5} \end{align} \]

Alternativamente, temos

\[ \begin{align} F_n(x)=\begin{cases} 0, & \text{se}\;\; x<x_{(1)},\\ \frac{i}{n}, & \text{se}\;\; x_{(i)}\leq x < x_{(i+1)}, \;\;\forall\;i: 1 \leq i<n \\ 1, & \text{se}\;\; x\geq x_{(n)}, \end{cases}, \tag{6} \end{align} \]

em que \(x_{(1)}, x_{(2)},\cdots, x_{(n)}\) são realizações ordenadas das variáveis aleatórias \(X_1,X_2,\cdots,X_n\).

## Grafico da Funcao de Distribuicao Empirica

n<-100:120
l1<-c(2,4,6,8)
l2<-c(2,3,5,7)

set.seed(12345)
par(mfrow=c(2,2))
for (i in 1:4) {
 
   plot.ecdf(Custo_teorico(n,l1[i],l2[i]),main="Distribuição Empírica do Custo Esperado")

   legend("topleft", legend=bquote(lambda[1]==.(l1[[i]]) ~ "," ~lambda[2]==.(l2[[i]])) )
}

3 Valores Simulados

A seguir, apresentamos resultados provenientes da simulação do Custo em processos de Poisson independentes.

Considere as amostras aleatórias de tempos de chegada \(X_i=(X_{i1},X_{i2},\cdots, X_{im})\) e \(Y_i=(Y_{i1},Y_{i2},\cdots, Y_{im})\); \(i\in \{1,2,\ldots,n\}\), tais que
\[ \begin{align} X_{ij}\sim Gama(i,\lambda_1) \quad \mbox{e} \quad Y_{ij}\sim Gama(i,\lambda_2),\quad \forall\; (i,j)\in\{1,\ldots,n\}\times \{1,\ldots,m\}.\tag{7} \end{align} \]

Nas matrizes abaixo, encontram-se as amostras de tamanho \(m\) dos \(n\) primeiros tempos de chegada. \[ \begin{bmatrix} X_{11} & X_{12} & \cdots & X_{1m}\\ X_{21} & X_{22} & \cdots & X_{2m}\\ \vdots & \vdots & \ddots & \vdots\\ X_{n1} & X_{n2} & \cdots & X_{nm} \end{bmatrix} \qquad \mbox{e}\qquad \begin{bmatrix} Y_{11} & Y_{12} & \cdots & Y_{1m}\\ Y_{21} & Y_{22} & \cdots & Y_{2m}\\ \vdots & \vdots & \ddots & \vdots\\ Y_{n1} & Y_{n2} & \cdots & Y_{nm} \end{bmatrix} \]

O Custo Mínimo Amostral é dado por

\[ \begin{align} \hat{C}_{opt}(n,m,\lambda_1,\lambda_2)=\sum\limits_{i=1}^{n}\sum\limits_{j=1}^{m}\frac{1}{m}\big|X_{ij}-Y_{ij}\big|,\tag{8} \end{align} \] em que \(m\) é o tamamho das amostras e \(n\) é a quantidade de amostras.

Custo.est<-function(n,m,l1,l2) {
                    
                       # l1: taxa do processo 1
                       # l2: taxa do processo 2
                       # n: quantidade de amostras de tempo; (n primeiras chegadas)
                       # m: tamanho de cada amostra do tempo X_i 
                       
                       Custo<-numeric(length(n))

                                  for (j in 1:length(n)){
           
                                              mat.X<-matrix(0,nrow=n[j],ncol=m)
           
                                              mat.Y<-matrix(0,nrow=n[j],ncol=m)
                 
                                                      for (i in 1:n[j]){
                     
                                                          mat.X[i,]<-rgamma(m,i,l1) # m tempos do 1o processo
  
                                                          mat.Y[i,]<-rgamma(m,i,l2) # m tempos do 2o processo
                                                          } 
                  
                                               Custo[j]<-sum(rowMeans(abs(mat.X-mat.Y)))
                                              }
 
  return(Custo)
}

3.1 Estimação dos parâmetros da distribuição Gama

Suponha \(X_1,X_2,\ldots,X_n\) uma amostra aleatória de uma distribuição Gama(\(\alpha,\beta\)) com parâmetros de forma e de escala desconhecidos. Neste caso, podemos usar o Método de Estimação por Máximo-Verossimilhança. Através desse método, mostra-se que

\[ \hat{\alpha}\approx\frac{0.5}{log(\bar{x})-\overline{log(x)}} \quad \mbox{e} \quad \hat{\beta}\approx\frac{\hat{\alpha}}{\bar{x}}. \]

3.2 Esperança do Custo Amostral

\[ \begin{align} E(\hat{C}_{opt})&=E\bigg[\sum\limits_{i=1}^{n}\sum\limits_{j=1}^{m}\frac{1}{m}\big|X_{ij}-Y_{ij}\big|\bigg]\\ &\overset{(linear)}{=}\frac{1}{m}\sum\limits_{j=1}^{m}\sum\limits_{i=1}^{n}E\big[|X_{ij}-Y_{ij}|\big]\\ &\overset{(id)}{=}\frac{1}{m}\sum\limits_{j=1}^{m}\underbrace{\sum\limits_{i=1}^{n}E\big[|X_i-Y_i|\big]}_{C_{opt}\;\; \text{(independe de $j$)}}\\ &=\frac{1}{m}\sum\limits_{j=1}^{m}C_{opt}=C_{opt}. \end{align} \]

3.3 Variância do Custo Amostral

\[ \begin{align} Var(\hat{C}_{opt})&=Var\bigg(\sum\limits_{i=1}^{n}\sum\limits_{j=1}^{m}\frac{1}{m}\big|X_{ij}-Y_{ij}\big|\bigg)\\ &=\frac{1}{m^2}\sum\limits_{i=1}^{n}\sum\limits_{j=1}^{m}Var(X_{ij}-Y_{ij})\\ &=\frac{1}{m^2}\sum\limits_{i=1}^{n}\sum\limits_{j=1}^{m}\bigg(Var(X_{ij})+Var(Y_{ij})\bigg)\\ &= \frac{1}{m}\sum\limits_{i=1}^{n}\bigg(\frac{i}{\lambda_{1}^2}+\frac{i}{\lambda_{2}^2}\bigg)=\frac{n(n+1)}{2m}\bigg(\frac{1}{\lambda_1^2}+\frac{1}{\lambda_2^2}\bigg).\tag{10} \end{align} \]

## Variancia do Custo Amostral

Var_Custo.est<-function(n,m,l1,l2){(n*(n+1)/(2*m))*(1/l1^2+1/l2^2)}

3.4 Distribuição do Custo Amostral

\[ \hat{C}_{opt}\sim N\bigg(E(\hat{C}_{opt}),Var(\hat{C}_{opt})\bigg), \] em que \[E(\hat{C}_{opt})=C_{opt}\qquad \mbox{e}\qquad Var(\hat{C}_{opt})=\frac{n(n+1)}{2m}\bigg(\frac{1}{\lambda_1^2}+\frac{1}{\lambda_2^2}\bigg),\] conforme calculado anteriormente.

\(C_{opt}\) é o Custo Teórico (obtido pela soma da distância esperada \(E[|X_k-Y_k|]\)).

3.5 Convergência pela Lei dos Grandes Números

A Lei dos Grandes Números garante a seguinte convergência em probabilidade

\[ \begin{align}\hat{C}_{opt} \overset{P}{\to} C_{opt}, \quad m\to \infty \tag{11} \end{align} \]

set.seed(12345)
par(mfrow=c(1,1))
l1<-0.55
l2<-0.95
m<-40:2000

C_est<-sapply(m,Custo.est,n=10,l1,l2)
C_Teo<-Custo_teorico(10,l1,l2)

plot(m,C_est,xlab="m (n=10)",ylab="Custo",main="Convergência do Custo Amostral")
legend("topright", expression(lambda[1]~"= 0.55, "~lambda[2]~" = 0.95"),inset=0.02)
legend("bottomright",inset=0.02,legend=c("Custo Esperado","Custo Amostral"),
       col=c("red","black"),lty=c(1,1),cex=0.8)
abline(h=C_Teo,col="red")

3.6 Custo Amostral versus Custo Esperado

par(mfrow=c(1,2))

l1<-0.95 ; l2<-0.90
n<-100:130
CUSTO<-sapply(n,Custo_teorico,l1=l1,l2=l2)

set.seed(12345)
CUSTO.est<-sapply(n,Custo.est,m=100,l1=l1,l2=l2)


## Plote dos Gráficos

plot(n,CUSTO.est,type="l",ylab="Custo",xlab="n  (m=100)")
lines(n,CUSTO,col="red")
title(main="Custo Esperado X Custo Amostral")
legend("topleft", expression(lambda[1]~"= 0.95, "~lambda[2]~" = 0.90"))
legend("bottomright",inset=0.02,legend=c("Custo Esperado","Custo Amostral"),
       col=c("red","black"),lty=c(1,1),cex=0.8)


plot(n,CUSTO.est,pch=1,ylab="Custo",xlab="n  (m=100)",main = "Custo Esperado X Custo Amostral")
lines(n,CUSTO, col="red")
legend("topleft", expression(lambda[1]~"= 0.95, "~lambda[2]~" = 0.90"))
legend("bottomright",inset=0.02,legend=c("Custo Esperado","Custo Amostral"),
       col=c("red","black"),lty=c(1,1),cex=0.8)

3.7 Quantidade Pivotal baseada na Estatística \(\hat{C}_{opt}\)

Defina-se a variável aleatória \(Z\) como segue

\[ \begin{align} Z:=\frac{\hat{C}_{opt}-E\big[\hat{C}_{opt}\big]}{\sqrt{Var(\hat{C}_{opt})}}, \tag{12} \end{align} \]

em que \(E\big[\hat{C}_{opt}\big]=C_{opt}\), conforme mostrado anteriormente.

Desse modo \(Z\overset{a}{\sim} N(0,1)\). Logo, \(Z\) é uma quantidade pivotal. Utilizaremos-a para construir um IC para o Custo Teórico.

3.7.1 Verificando o ajuste ao Modelo Normal

Q_Pivo<-function(n,m,l1,l2){
  
          res<-(Custo.est(n,m,l1,l2)- Custo_teorico(n,l1,l2))/sqrt(Var_Custo.est(n,m,l1,l2))
          
          return(res)
}

Qtd_Pivotal<-sapply(100:1000,Q_Pivo,m=100,l1=0.95,l2=0.90)

#install.packages("fitdistrplus")

library(fitdistrplus)

ajuste_normal<-fitdist(Qtd_Pivotal,"norm")

plot(ajuste_normal)

Pelos gráficos da densidade e da Função de Distribuição Acumulada, existem fortes evidências de um bom ajuste ao Modelo Normal.

Os gráficos Q-Q plot e P-P plot indicam, respectivamente, um bom ajuste nas caudas e nos centros das distribuições.

3.8 Construção do Intervalo de Confiança (IC)

Definição (Intervalo de Confiança) Seja \(X_1,\cdots,X_n\) uma amostra aleatória da densidade \(f(\cdot,\theta)\). Seja

\(T_1 = \mathcal{t}_1(X_1,\cdots,X_n)\) e \(T_2=\mathcal{t}_{2}(X_1,\cdots,X_n)\) duas estatísticas que satisfaçam \(T_1<T_2\) para as quais

\(P_{\theta}\big[T_1<\tau(\theta)<T_2\big]\equiv \gamma\), onde \(\gamma\) não depende de \(\theta\); então o intervalo aleatório\((T_1,T_2)\) é chamado de Intervalo de Confiança (IC) a \(100\gamma\) por cento para \(\tau(\theta)\).

E, \(\gamma=1-\alpha\) é o coeficiente (ou nível) de confiança (denominado também probabilidade de cobertura); \(T_1\) e \(T_2\) são os

limites inferior e superior, respectivamente, para \(\tau(\theta)\). (Obs.: Em teste de hipótese, \(\alpha\) é o nível de significância).

Um valor \((s_1,s_2)\) do intervalo aleatório \((T_1,T_2)\) também é chamado de Intervalo de Confiança (IC).

Obs.: Supondo \(\theta=C_{opt}\) desconhecido e \(\tau(\cdot)\) sendo a função identidade; temos que \(T_1=\mathcal{t}_1(X_1,\cdots,X_n)\) e \(T_2= \mathcal{t}_2(X_1,\cdots,X_n)\) são

\[T_1=\hat{C}_{opt}-z_{(1-\alpha/2)}\sqrt{Var(\hat{C}_{opt})} \qquad \mbox{e} \qquad T_2=\hat{C}_{opt}+z_{(1-\alpha/2)}\sqrt{Var(\hat{C}_{opt})}\;\;.\]

Exemplo de Intervalo de Confiança para média populacional

No nosso caso, \(\mu=C_{opt}\) e \(\bar{X}=\hat{C}_{opt}\).
Ilustração Gráfica de um Intervalo de Confiança

Ilustração Gráfica de um Intervalo de Confiança

Definição (Quantidade Pivotal) Seja \(X_1,\cdots,X_n\) uma amostra aleatória de uma densidade \(f(\cdot,\theta)\).

Seja \(Q=\mathcal{q}(X_1,\cdots,X_n;\theta)\), isto é, \(Q\) é uma função de \(X_1,\cdots,Xn\) e de \(\theta\). Se \(Q\) tem uma

distribuição que não depende de \(\theta\), então \(Q\) é uma Quantidade Pivotal.

Intervalo de Confiança A partir da Quantidade Pivotal, pode-se mostrar que o seguinte Intervalo de Confiança (IC) para o Custo Teórico \(C_{opt}\) \[ \begin{align} IC_{100(1-\alpha)\%}\big(C_{opt}\big)=\bigg[\;\hat{C}_{opt}-z_{(1-\alpha/2)}\sqrt{Var(\hat{C}_{opt})}\;,\;\hat{C}_{opt}+z_{(1-\alpha/2)}\sqrt{Var(\hat{C}_{opt})}\;\bigg] \end{align} \]

é válido.

#install.packages("ggplot2") ; install.packages("gridExtra")
library(ggplot2)

## Intervalo de Confiança ao nível de 95%

Intervalo<-function(n,m,l1,l2){
                
                int<-Custo.est(n,m,l1,l2)+c(-1,1)*qnorm(0.975)*sqrt(Var_Custo.est(n,m,l1,l2))
               
           return( int )
}

set.seed(12345) ; n<-1200:1250

Int<-sapply(n,Intervalo,m=100,l1=0.95,l2=0.9)
LI<-Int[1,]
LS<-Int[2,]

set.seed(12345)
CUSTO<-sapply(n,Custo_teorico,l1=0.95,l2=0.90)

df0 <- data.frame( n = n,
                   custo = CUSTO,
                   li   =   LI,
                   ls = LS
                  )

grafico0<-ggplot(df0, aes(n, custo)) +
            geom_point() +
            geom_line() +
            geom_errorbar(aes(ymin = li, ymax = ls)) +
            labs(x = "n ( m=100 )",
                 y = "Custo",
                 title = "Custo Mínimo Esperado e Intervalo de Confiança ao nível 95%") +
            theme( plot.title = element_text(size=11) )

N<-rep(n,3)
Custo<-c(LS,CUSTO,LI)
Legenda<-rep( c("Limite Superior", "Custo Esperado","Limite Inferior"),each= length(n))
df<-data.frame(n=N,Legenda,Custo)

grafico1<-ggplot(df, aes(x = n, y = Custo)) + 
              geom_line(aes(color = Legenda, linetype = Legenda)) + 
              scale_color_manual(values = c("red", "black","blue"))+
              labs( x="n ( m=100 )",
                    title = "Custo Mínimo Esperado e Intervalo de Confiança ao nível 95%")+
              theme(legend.position = c(0.20, 0.85),
              legend.background = element_rect(fill = "white", color = "black"),
              plot.title = element_text(size=11) )

gridExtra::grid.arrange(grafico0, grafico1, ncol=2)

3.9 Simulação para Intervalo de Confiança

INT <- function(n,m,l1,l2,cl) {
    
    # cl: nivel de confianca
  
    alpha <- 1-cl/100
 
   # CI para Custo Teorico (Esperado)
    dp_am <-sqrt(Var_Custo.est(n,m,l1,l2))   # desvio padrao amostral
  
   z_s <- qnorm(1 - alpha/2) # quantil da normal
  
   li <- Custo.est(n,m,l1,l2) - z_s*dp_am    # limite inferior
   ls <- Custo.est(n,m,l1,l2) + z_s*dp_am    # limite superior
 
  c(limite_Inferior=li, limite_superior=ls)
}

   # Gerar N vezes os Intervalos para Custo Teorico

simulacao <- function(N,n,m,l1,l2,cl){
  set.seed(123)
  sim<-t(replicate(N, INT(n,m,l1,l2,cl)))

  return(list("Qtd de Intervalos que Contêm o Custo"=N*mean(sim[,1] <= Custo_teorico(n,l1,l2) &  
        sim[,2]>= Custo_teorico(n,l1,l2)),"Total de Intervalos"=N))
}
### Simulacao
library(knitr)
## Exemplo: Gerar 10^3 intervalos no ponto n=100 (100 primeiros tempos de chegada), a partir de amostras de tamanho m=100.
set.seed(123)
simulacao(1000,100,100,0.8,0.5,95)
## $`Qtd de Intervalos que Contêm o Custo`
## [1] 952
## 
## $`Total de Intervalos`
## [1] 1000

4 Tabelas para o Custo de Transporte

#install.packages("knitr")
library(knitr)

set.seed(12345)
C_est<-Custo.est(100:110,m=100,0.95,0.90)

C_Teo<-Custo_teorico(100:110,0.95,0.90)

set.seed(12345)
Int<-sapply(100:110,Intervalo,m=100,l1=0.95,l2=0.90)

LI<-Int[1,]
LS<-Int[2,]

dados1<-data.frame(n=100:110,
                  Custo_Amostral=C_est,
                  Custo_Esperado=C_Teo,
                  LI=LI,
                  LS=LS
                 )

kable(dados1,digits = 2,caption=" Tabela para o Custo de Transporte (Taxa 1=0.95 ; Taxa 2=0.90 e m=100)")
Tabela para o Custo de Transporte (Taxa 1=0.95 ; Taxa 2=0.90 e m=100)
n Custo_Amostral Custo_Esperado LI LS
100 857.33 852.62 836.01 878.64
101 872.81 865.77 851.28 894.34
102 869.58 878.99 847.83 891.32
103 896.09 892.28 874.13 918.04
104 908.71 905.65 886.54 930.88
105 922.99 919.09 900.61 945.37
106 934.09 932.60 911.50 956.68
107 952.63 946.19 929.83 975.44
108 961.40 959.85 938.39 984.42
109 977.73 973.58 954.51 1000.96
110 983.61 987.38 960.17 1007.05
l2<-c(0.90,0.92,0.94,0.95)
C_teo<-sapply(l2,Custo_teorico,n=100,l1=0.95)

set.seed(12345)
C_est<-sapply(l2,Custo.est,m=10^4,n=100,l1=0.95)

set.seed(12345)
Int<-sapply(l2,Intervalo,n=100,m=10^4,l1=0.95)

LI<-Int[1,]
LS<-Int[2,]

tx1<-rep(0.95,4) ; tx2<-c(0.90,0.92,0.94,0.95)

dados2<-data.frame(Taxa_1=tx1,
                   Taxa_2=tx2,
                   Custo_Amostral=C_est,
                   Custo_Esperado=C_teo,
                   LI=LI,
                   LS=LS
                  )

kable(dados2,digits = 2,caption=" Tabela para o Custo de Transporte (n=100 e m=10^4)")
Tabela para o Custo de Transporte (n=100 e m=10^4)
Taxa_1 Taxa_2 Custo_Amostral Custo_Esperado LI LS
0.95 0.90 852.66 852.62 850.53 854.80
0.95 0.92 819.98 820.29 817.88 822.09
0.95 0.94 800.75 800.39 798.67 802.84
0.95 0.95 795.91 794.81 793.83 797.98
set.seed(12345)
l1<-seq(0.90,2,length.out = 70)
l2<-seq(0.80,1.5,length.out = 70)

Int<-mapply(Intervalo,l1,l2,MoreArgs = list(n=100,m=10^4))

set.seed(12345)
CUSTO.est<-mapply(Custo.est,l1,l2,MoreArgs = list(n=100,m=10^4))

CUSTO<-mapply(Custo_teorico,l1,l2,MoreArgs = list(n=100))

#install.packages("DT") ; install.packages('dplyr')

library(DT) ; library(dplyr)

dados3<-matrix(c(l1,l2,CUSTO.est,CUSTO,Int[1,],Int[2,]), ncol=6)
colnames(dados3)<-c("Taxa 1", "Taxa 2", "Custo Amostral", "Custo Esperado", "LI", "LS")

dados3 %>% 
     
      datatable(extensions = 'Buttons',
               options = list(dom='Blfrtip',
                              buttons=c('copy','csv','excel','pdf','print'),
                              lengthMenu=list(c(10,20,40,-1),
                                              c(10,20,40,'Todas'))),
               caption = "Tabela para o Custo Mínimo de Transporte (n=100 e m=10^4)") %>% 
  
                                                                            formatRound(columns = all(),digits=3)

Bibliografia

Casella, George, and Roger L Berger. 2002. Statistical Inference. Vol. 2. Duxbury Pacific Grove, CA.

Kranakis, Evangelos. 2014. “On the Event Distance of Poisson Processes with Applications to Sensors.” Discrete Applied Mathematics 179: 152–62.

R Core Team. 2020. R: A Language and Environment for Statistical Computing. Vienna, Austria: R Foundation for Statistical Computing. https://www.R-project.org/.

Ross, Sheldon M. 1996. Stochastic Processes. Vol. 2.

Shao, Jun. 2003. “Mathematical Statistics.” Springer.


  1. Universidade de Brasília, ↩︎

  2. Universidade de Brasília, ↩︎