1. Introducción.

Las pruebas no paramétricas o de libre distribución se utilizan como una alternativa a las pruebas paramétricas en los casos en los cuales no se cumplen ciertos supuestos o cuando los datos muestrales se presentan en escala nominal u ordinal.

2. Prueba de rachas.

Intenta establecer si las observaciones son aleatorias. Una racha es una secuencia de valores muestrales con una determinada característica común precedida y seguida por valores que no presentan esa característica.

2.1. Estadístico de prueba.

\(V\): número total de rachas o corridas.

\(n_{1}\): categoría que ocurre menos.

\(n_{2}\): la otra categoría.

\(Z= \dfrac{V-\mu_{V}}{\sigma_{V}}\)

\(\mu_{V}=\dfrac{2n_{1}n_{2}}{n_{1}+n_{2}}+1\)

\(\sigma_{V}^{2}=\dfrac{2n_{1}n_{2}(2n_{1}n_{2}-n_{1}n_{2})}{(n_{1}+n_{2})^{2}(n_{1}+n_{2}-1}\)

Aproximación para muestras grandes.

2.2. Ejemplo.

Tomado del libro Probabilidad & Estadísticas para Ingeniería y Ciencias de Walpole, Myers, Myers y Ye. Página 688.

x<-c(3.6,3.9,4.1,3.6,3.8,3.7,3.4,4.0,3.8,4.1,3.9,4.0,3.8,4.2,4.1)
runs.test(x)
## 
##  Runs Test
## 
## data:  x
## statistic = 0.31399, runs = 8, n1 = 6, n2 = 7, n = 13, p-value = 0.7535
## alternative hypothesis: nonrandomness

3. Prueba del signo.

Se utiliza para probar una hipótesis sobre la mediana de una población.

En una muestra aleatoria de tamaño n se reemplaza cada valor en la muestra que exceda a la mediana por un signo + y cada valor en la muestra menor que la mediana por un signo -.

3.1. Estadístico de prueba.

\(Z=\dfrac{X-\mu}{\sigma}\)

\(\mu = np\)

\(\sigma= \sqrt{npq}\)

Para muestras grandes.

3.2. Ejemplo.

Tomado del libro Probabilidad & Estadísticas para Ingeniería y Ciencias de Walpole, Myers, Myers y Ye. Página 688.

x1<-c(1.5,2.2,0.9,1.3,2.0,1.6,1.8,1.5,2.0,1.2,1.7)
med<-median(x1)
SIGN.test(x1, md =med, alternative = "two.sided", conf.level = 0.95)
## 
##  One-sample Sign-Test
## 
## data:  x1
## s = 5, p-value = 1
## alternative hypothesis: true median is not equal to 1.6
## 95 percent confidence interval:
##  1.271273 2.000000
## sample estimates:
## median of x 
##         1.6 
## 
## Achieved and Interpolated Confidence Intervals: 
## 
##                   Conf.Level L.E.pt U.E.pt
## Lower Achieved CI     0.9346 1.3000      2
## Interpolated CI       0.9500 1.2713      2
## Upper Achieved CI     0.9883 1.2000      2

4. Prueba del signo para dos muestras.

En el caso de muestras pareadas se puede aplicar la prueba del signo.

4.1. Estadística de prueba.

A cada diferencia \(d_{i}\) se le asigna un sino + o - de acuerdo a si la diferencia entre los valore de cada pareja es positiva o negativa.

4.2. Ejemplo.

Tomado del libro Probabilidad & Estadísticas para Ingeniería y Ciencias de Walpole, Myers, Myers y Ye. Página 675.

cin<-c(4.2,4.7,6.6,7.0,6.7,4.5,5.7,6.0)
rad<-c(4.1,4.9,6.2,6.9,6.8,4.4,5.7,5.8)
SIGN.test(cin,rad, md = 0, alternative = "two.sided", conf.level = 0.95)
## 
##  Dependent-samples Sign-Test
## 
## data:  cin and rad
## S = 5, p-value = 0.4531
## alternative hypothesis: true median difference is not equal to 0
## 95 percent confidence interval:
##  -0.1325  0.2650
## sample estimates:
## median of x-y 
##           0.1 
## 
## Achieved and Interpolated Confidence Intervals: 
## 
##                   Conf.Level  L.E.pt U.E.pt
## Lower Achieved CI     0.9297 -0.1000  0.200
## Interpolated CI       0.9500 -0.1325  0.265
## Upper Achieved CI     0.9922 -0.2000  0.400

5. Prueba binomial.

La prueba se utiliza cuando se tiene n ensayos independientes con solo dos resultados posibles (éxito=1 o fracaso=0).

5.1. Estadístico de prueba.

\(T\) número de éxitos que ocurren en el experimento. Se obtiene la robabilidad binomial.

Si el el número de ensayos es grande se puede aproximar a la distribución normal.

\[\begin{equation*} Z=\dfrac{T-np}{\sqrt{npq}} \end{equation*}\]

5.2. Ejemplo.

Ejemplo tomado del libro Practical nonparametric Statistics de W.J. Conover. Página 127.

binom.test(3,19,alternative="less")
## 
##  Exact binomial test
## 
## data:  3 and 19
## number of successes = 3, number of trials = 19, p-value = 0.002213
## alternative hypothesis: true probability of success is less than 0.5
## 95 percent confidence interval:
##  0.0000000 0.3594256
## sample estimates:
## probability of success 
##              0.1578947

6. Prueba de McNemar.

Es un caso especial de la pruebe del signo. Se tienen dos variables dicotómicas que toman valores 0 y 1, que se pueden tabular en una tabla de contingencia 2x2.

\(Y_{i}=0\) \(Y_{i}=1\)
\(X_{i}=0\) a b
\(X_{i}=1\) c d

6.1. Estadístico de prueba.

\[\begin{equation*} T=\dfrac{(b-c)^{2}}{b+c} \end{equation*}\]

Que tiene aproximadamente una distribución \(\chi^{2}\) con 1 grado de libertad.

6.2. Ejemplo.

Ejemplo tomado del libro Practical nonparametric Statistics de W.J. Conover. Página 168.

tabla<-matrix(c(63,21,4,2),byrow=TRUE,nrow=2,ncol=2)
mc<-mcnemar.test(tabla, correct=FALSE)
mc
## 
##  McNemar's Chi-squared test
## 
## data:  tabla
## McNemar's chi-squared = 11.56, df = 1, p-value = 0.0006739

7. Prueba de Wilcoxon.

Es una prueba útil para dos muestras relacionadas.

7.1. Estadístico de prueba.

Para cada par de observaciones \((x_{i},y_{i})\) calcular las diferencias \(|d_{i}|=|y_{i}-x_{i}|\). Omitir cuando \(x_{i}=y_{i}\) y reducir \(n\).

El estadístico de prueba es: \(T\) suma de los rangos positivos. Los valores críticos se encuentran tabulados.

Si la muestra es grande utilizar:

\[\begin{equation*} Z=\dfrac{T-n(n+1)/4}{\sqrt{n(n+1)(2n+1)/24}} \end{equation*}\]

7.2. Ejemplo.

Ejemplo tomado del libro Practical nonparametric Statistics de W.J. Conover. Página 355.

firstborn<-c(86,71,77,68,91,72,77,91,70,71,88,87)
secondtwin<-c(88,77,76,64,96,72,65,90,65,80,81,72)
wilcox.test(firstborn,secondtwin,alternative="greater",paired=TRUE)
## Warning in wilcox.test.default(firstborn, secondtwin, alternative = "greater", :
## cannot compute exact p-value with ties
## Warning in wilcox.test.default(firstborn, secondtwin, alternative = "greater", :
## cannot compute exact p-value with zeroes
## 
##  Wilcoxon signed rank test with continuity correction
## 
## data:  firstborn and secondtwin
## V = 41.5, p-value = 0.2382
## alternative hypothesis: true location shift is greater than 0

8. Prueba de Mann- Whitney.

Se prueba si existe diferencias entre las medias de dos poblaciones, suponiendo que las dos poblaciones son independientes.

8.1. Estadístico de prueba.

Se asignan rangos a las observaciones \(n_{1}+n_{2}\) combinadas. Para las observaciones empatadas, asignar el promedio de los rangos que correspondan.

\(T=S-\dfrac{n(n+1)}{2}\)

Donde \(S\) es la suma de los rangos asignados a la primera muestra.

Para esta prueba los valores críticos están tabulados. Par muestras grandes, utilizar:

\[\begin{equation*} Z=\dfrac{T-n_{1}n_{2}/2}{\sqrt{n_{1}n_{2}(n_{1}+n_{2}+1)/12}} \end{equation*}\]

8.2. Ejemplo.

Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 276.

farm<-c(14.8,7.3,5.6,6.3,9.0,4.2,10.6,12.5,12.9,16.1,11.4,2.7)
town<-c(12.7,14.2,12.6,2.1,17.7,11.8,16.9,7.9,16.0,10.6,5.6,5.6,7.6,11.3,
8.3,6.7,3.6,1.0,2.4,6.4,9.1,6.7,18.6,3.2,6.2,6.1,15.3,10.6,1.8,5.9,
9.9,10.6,14.8,5.0,2.6,4.0)
wilcox.test(farm,town,alternative="greater")
## Warning in wilcox.test.default(farm, town, alternative = "greater"): cannot
## compute exact p-value with ties
## 
##  Wilcoxon rank sum test with continuity correction
## 
## data:  farm and town
## W = 243, p-value = 0.2639
## alternative hypothesis: true location shift is greater than 0

9. Prueba de Kruskal-Wallis.

También llamada prueba H de Kruskal-Wallis, es una generalización de la prueba de suma de ranhos para el caso en el cual \(k>2\) poblaciones o tratamientos independientes. Es una alternativa del anális de varianza de un factor.

9.1. Estadístico de prueba.

\[\begin{equation*} H=\dfrac{12}{n(n+1)}\displaystyle\sum_{i=1}^{k}\dfrac{R_{i}^{2}}{n_{i}}-3(n+1) \end{equation*}\]

Tien una distribución \(\chi_{2}\) con \(k-1\) grados de libertad.

9.2. Ejemplo.

Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 291.

method<-c(rep((1),9),rep((2),10),rep((3),7),rep((4),8))
yields<-c(83,91,94,89,89,96,91,92,90,91,90,81,83,84,83,88,91,89,84,
101,100,91,93,96,95,94,78,82,81,77,79,81,80,81)
KW<-kruskalTest(yields,method)
## Warning in kruskalTest.default(yields, method): Ties are present. Quantiles were
## corrected for ties.
KW
## 
##  Kruskal-Wallis test
## 
## data:  yields and method
## chi-squared = 25.629, df = 3, p-value = 1.141e-05

9.3. Comparaciones múltiples.

Comparaciones múltiples bajo diferentes métodos.

kwAllPairsConoverTest(yields,method)
## Warning in kwAllPairsConoverTest.default(yields, method): Ties are present.
## Quantiles were corrected for ties.
## 
##  Pairwise comparisons using Conover's all-pairs test
## data: yields and method
##   1       2       3      
## 2 0.03392 -       -      
## 3 0.01963 1.1e-05 -      
## 4 3.7e-07 0.00054 5.2e-10
## 
## P value adjustment method: single-step
kwAllPairsDunnTest(yields,method)
## Warning in kwAllPairsDunnTest.default(yields, method): Ties are present. z-
## quantiles were corrected for ties.
## 
##  Pairwise comparisons using Dunn's all-pairs test
## 
## data: yields and method
##   1      2      3      
## 2 0.2438 -      -      
## 3 0.2438 0.0141 -      
## 4 0.0021 0.0778 8.6e-06
## 
## P value adjustment method: holm
## alternative hypothesis: two.sided
kwAllPairsNemenyiTest(yields,method)
## Warning in kwAllPairsNemenyiTest.default(yields, method): Ties are present, p-
## values are not corrected.
## 
##  Pairwise comparisons using Tukey-Kramer-Nemenyi all-pairs test with Tukey-Dist approximation
## data: yields and method
##   1      2      3      
## 2 0.4818 -      -      
## 3 0.4123 0.0191 -      
## 4 0.0025 0.1177 9.3e-06
## 
## P value adjustment method: single-step
## alternative hypothesis: two.sided
kwManyOneConoverTest(yields,method)
## Warning in kwManyOneConoverTest.default(yields, method): Ties are present.
## Quantiles were corrected for ties.
## 
##  Pairwise comparisons using Conover's many-to-one test
## data: yields and method
##   1      
## 2 0.019  
## 3 0.011  
## 4 1.2e-07
## 
## P value adjustment method: single-step
## alternative hypothesis: two.sided
kwManyOneDunnTest(yields,method)
## Warning in kwManyOneDunnTest.default(yields, method): Ties are present. z-
## quantiles were corrected for ties.
## 
##  Pairwise comparisons using Dunn's many-to-one test
## data: yields and method
##   1     
## 2 0.3464
## 3 0.2855
## 4 0.0013
## 
## P value adjustment method: single-step
## alternative hypothesis: two.sided
kwManyOneNdwTest(yields,method)
## Warning in kwManyOneNdwTest.default(yields, method): Ties are present. p values
## are not corrected.
## 
##  Pairwise comparisons using Nemenyi-Damico-Wolfe many-to-one test
## data: yields and method
##   1     
## 2 0.3490
## 3 0.2881
## 4 0.0013
## 
## P value adjustment method: single-step
## alternative hypothesis: two.sided

10. Prueba de Friedman.

Es una alternativa no parámetrica para el diseño en bloques aleatorios.

Se asignan rangos a las observaciones por bloques.

10.1. Estadística de prueba.

\(F_{r}=\dfrac{12}{bk(k+1)}\displaystyle\sum_{i=1}^{k}\left(R_{i}-\dfrac{b(k+1)}2\right)^2\)

Donde:

\(b\): número de bloques.

\(k\): número de tratamientos.

Tien una distribución \(\chi_{2}\) con \(k-1\) grados de libertad.

10.2. Ejemplo.

Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 371.

ans<-matrix(c(4,3,2,1,4,2,3,1,3,1.5,1.5,4,3,1,2,4,4,2,1,3,2,2,2,4,1,3,2,4,
2,4,1,3,3.5,1,2,3.5,4,1,3,2,4,2,3,1,3.5,1,2,3.5),byrow=TRUE,nrow=12)
dimnames(ans)<-list(1:12,c("1","2","3","4"))
friedmanTest(ans)
## 
##  Friedman rank sum test
## 
## data:  y
## Friedman chi-squared = 8.0973, df = 3, p-value = 0.04404

10.3. comparaciones múltiples.

Comparaciones múltiples bajo diferentes métodos.

frdAllPairsConoverTest(ans)
## 
##  Pairwise comparisons using Conover's all-pairs test for a two-way balanced complete block design
## data: y
##   1     2     3    
## 2 0.089 -     -    
## 3 0.129 0.999 -    
## 4 0.917 0.326 0.417
## 
## P value adjustment method: single-step
frdAllPairsExactTest(ans)
## 
##  Pairwise comparisons using Eisinga, Heskes, Pelzer & Te Grotenhuis all-pairs test with exact p-values for a two-way balanced complete block design
## 
## data: y
##   1    2    3   
## 2 0.12 -    -   
## 3 0.16 1.00 -   
## 4 1.00 0.39 0.40
## 
## P value adjustment method: holm
frdAllPairsMillerTest(ans)
## 
##  Pairwise comparisons using Miller, Bortz et al. and Wike all-pairs test for a two-way balanced complete block design
## 
## data: y
##   1    2    3   
## 2 0.15 -    -   
## 3 0.21 1.00 -   
## 4 0.94 0.43 0.52
## 
## P value adjustment method: none
frdAllPairsNemenyiTest(ans)
## 
##  Pairwise comparisons using Nemenyi-Wilcoxon-Wilcox all-pairs test for a two-way balanced complete block design
## 
## data: y
##   1    2    3   
## 2 0.10 -    -   
## 3 0.14 1.00 -   
## 4 0.92 0.34 0.44
## 
## P value adjustment method: single-step
frdAllPairsSiegelTest(ans)
## 
##  Pairwise comparisons using Siegel-Castellan all-pairs test for a two-way balanced complete block design
## 
## data: y
##   1    2    3   
## 2 0.13 -    -   
## 3 0.16 1.00 -   
## 4 1.00 0.39 0.40
## 
## P value adjustment method: holm
frdManyOneDemsarTest(ans)
## 
##  Pairwise comparisons using Demsar's many-to-one test for a two-way balanced complete block design
## 
## data: y
##   1    
## 2 0.066
## 3 0.066
## 4 0.527
## 
## P value adjustment method: holm
## alternative hypothesis: two.sided
frdManyOneExactTest(ans)
## 
##  Pairwise comparisons using Eisinga-Heskes-Pelzer and Grotenhuis many-to-one test for a two-way balanced complete block design
## data: y
##   1    
## 2 0.061
## 3 0.063
## 4 0.584
## 
## P value adjustment method: holm
## alternative hypothesis: two.sided
frdManyOneNemenyiTest(ans)
## 
##  Pairwise comparisons using Nemenyi-Wilcoxon-Wilcox-Miller many-to-one test for a two-way balanced complete block design
## data: y
##   1    
## 2 0.058
## 3 0.085
## 4 0.863
## 
## P value adjustment method: single-step
## alternative hypothesis: two.sided

11. Prueba de Quade.

Es una prueba que se utiliza en un diseño en bloques aleatorios. Se asignan rangos dentro de bloques.

11.1. Estadístico de prueba.

\[\begin{equation*} T=\dfrac{(b-1)B}{A_{2}-B} \end{equation*}\]

Donde:

\[\begin{equation*} B=\dfrac{1}{b}\displaystyle\sum_{j=1}^{k}S_{j}^{2} \end{equation*}\]

\[\begin{equation*} A_{2}=\displaystyle\sum_{i=1}^{b}\displaystyle\sum_{j=1}^{k}S_{ij}^{2} \end{equation*}\]

\[\begin{equation*} S_{j}=\displaystyle\sum_{i=1}^{b} \end{equation*}\]

\[\begin{equation*} S_{ij}=Q_{i}\left[R(X_{ij})-\dfrac{k+1}{2}\right] \end{equation*}\]

\(Q_{i}\): los rangos asignados a los bloques 1,2,…b

11.2. Ejemplo.

Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 375.

datos <- matrix(c( 5, 4, 7, 10, 12,1, 3, 1, 0, 2,16, 12, 22, 22, 35,
5, 4, 3, 5, 4,10, 9, 7, 13, 10,19, 18, 28, 37, 58,10, 7, 6, 8, 7),
nrow = 7, byrow = TRUE,dimnames =list(store = as.character(1:7),
brand = LETTERS[1:5]))
datos
##      brand
## store  A  B  C  D  E
##     1  5  4  7 10 12
##     2  1  3  1  0  2
##     3 16 12 22 22 35
##     4  5  4  3  5  4
##     5 10  9  7 13 10
##     6 19 18 28 37 58
##     7 10  7  6  8  7
qu<-quade.test(datos)
qu
## 
##  Quade test
## 
## data:  datos
## Quade F = 3.8293, num df = 4, denom df = 24, p-value = 0.01519

11.3. Comparaciones múltiples.

quadeAllPairsTest(datos)
## 
##  Pairwise comparisons using Quade's test with TDist approximation
## data: datos
##   A     B     C     D    
## B 0.835 -     -     -    
## C 1.000 0.862 -     -    
## D 0.738 0.092 0.612 -    
## E 0.291 0.021 0.215 1.000
## 
## P value adjustment method: holm

12. Prueba de Cochran.

La prueba Q de Cochran es una prueba no paramétrica para verificar si k tratamientos tienen efectos idénticos.

Corresponde a un diseño en bloques (las observaciones están relacionadas) cuando la variable dependiente toma solo dos valores (0 y 1).

12.1. Estadístico de prueba.

\[\begin{equation*} T=\dfrac{c(c-1)\displaystyle\sum_{j=1}^{c}C_{j}^{2}-(c-1)N^{2}}{cN-\displaystyle\sum_{i=1}^{r}R_{i}^{2}} \end{equation*}\]

Tiene aproximadamente una distribución \(\chi_{2}\) con \(c-1\) grados de libertad.

Donde:

\(c\): número de tratamientos (columnas).

\(r\): número de bloques (filas).

\(R_{i}\): el total de la fila \(i=1, 2,...r\)

\(C_{j}\): la suma de la columna \(j=1,2,...c\)

12.2. Ejemplo.

Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 252.

res<-c(1,1,1,1,1,1,0,1,0,1,1,0,0,0,0,1,1,1,1,1,1,1,1,0,
0,0,1,0,1,0,1,1,1,1,1,1)
sportsman=gl(3,1,36,labels=LETTERS[1:3])
game<-gl(12,3,labels=letters[1:12])
mat<-cbind(res,sportsman,game)
mat
##       res sportsman game
##  [1,]   1         1    1
##  [2,]   1         2    1
##  [3,]   1         3    1
##  [4,]   1         1    2
##  [5,]   1         2    2
##  [6,]   1         3    2
##  [7,]   0         1    3
##  [8,]   1         2    3
##  [9,]   0         3    3
## [10,]   1         1    4
## [11,]   1         2    4
## [12,]   0         3    4
## [13,]   0         1    5
## [14,]   0         2    5
## [15,]   0         3    5
## [16,]   1         1    6
## [17,]   1         2    6
## [18,]   1         3    6
## [19,]   1         1    7
## [20,]   1         2    7
## [21,]   1         3    7
## [22,]   1         1    8
## [23,]   1         2    8
## [24,]   0         3    8
## [25,]   0         1    9
## [26,]   0         2    9
## [27,]   1         3    9
## [28,]   0         1   10
## [29,]   1         2   10
## [30,]   0         3   10
## [31,]   1         1   11
## [32,]   1         2   11
## [33,]   1         3   11
## [34,]   1         1   12
## [35,]   1         2   12
## [36,]   1         3   12
cochran.qtest(res~sportsman|game)
## 
##  Cochran's Q test
## 
## data:  res by sportsman, block = game 
## Q = 2.8, df = 2, p-value = 0.2466
## alternative hypothesis: true difference in probabilities is not equal to 0 
## sample estimates:
## proba in group A proba in group B proba in group C 
##        0.6666667        0.8333333        0.5833333

13. Prueba de Cox-Stuart.

La prueba Cox and Stuart se utiliza para verificar si los valores que se obtienen en una muestra siguen alguna tendencia.

13.1. Estadístico de prueba.

Los datos consisten de una secuencia de \(X_{1},...X_{n}\) observaciones en el orden en que fueron observadas.

Agrupar las variables en pares \((X_{1},X_{1+c})\), \((X_{2},X_{2+c}\), \(X_{n'-c},X_{n'}\) donde \(c=n'/2\) si \(n'\) es par y \(c=(n'+1)/2\) si \(n'\) es impar.

Reemplazar cada par por \(+\) si \(X_{i}<X_{i+c}\) o por \(-\) si \(X_{i}>X_{i+c}\)

Eliminar empates.

El estadístico de prueba es

\(T=\) número total de \(+\).

\(T\) tiene una distribución binomial con \(p=1/2\).

13.2. Ejemplo.

Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 171.

precipitation <- c(45.25, 45.83, 41.77, 36.26, 45.37, 52.25, 35.37, 57.16, 35.37, 58.32,
41.05, 33.72, 45.73, 37.90, 41.72, 36.07, 49.83, 36.24, 39.90)
cox.stuart.test(precipitation)
## 
##  Cox Stuart test
## 
## data:  precipitation
## statistic = 4, n = 9, p-value = 1
## alternative hypothesis: non randomness

14. Prueba de Mantel-Haenszel.

Se utiliza para probar la asociación entre dos variables dicotómicas en presencia de una tercera variable.

14.1. Estadístico de Prueba.

Los datos se resumen en varias tablas de contingencia 2x2

Col. 1 col. 2 suma
fila 1 \(x_{i}\) \(r_{i}-x_{i}\) \(r_{i}\)
fila 2 \(c_{i}-x_{i}\) \(N_{i}-r_{i}-c_{i}+x_{i}\) \(N_{i}-r_{i}\)
suma \(c_{i}\) \(N_{i}-c_{i}\) \(N_{i}\)

\[\begin{equation*} T=\dfrac{\sum x_{i}-\sum \dfrac{r_{i}c_{i}}{N_{i}}}{\sqrt{\sum \dfrac{r_{i}c_{i}(N_{i}-r_{i})(N_{i}-c_{i})}{N_{i}^{2}(N_{i}-1)}}} \end{equation*}\]

\(T\) tiene aproximadamente una distribución normal estándar.

14.2. Ejemplo.

Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 194.

mh<-array(c(10,12,1,1,9,11,0,1,8,7,0,3),dim=c(2,2,3),dimnames=list(Treat=c("treatment","control"),
resul=c("succes","failure"),groups=c("Group 1","Group 2","Group 3")))
mh
## , , groups = Group 1
## 
##            resul
## Treat       succes failure
##   treatment     10       1
##   control       12       1
## 
## , , groups = Group 2
## 
##            resul
## Treat       succes failure
##   treatment      9       0
##   control       11       1
## 
## , , groups = Group 3
## 
##            resul
## Treat       succes failure
##   treatment      8       0
##   control        7       3
mantelhaen.test(mh,correct=FALSE)
## 
##  Mantel-Haenszel chi-squared test without continuity correction
## 
## data:  mh
## Mantel-Haenszel X-squared = 2.0515, df = 1, p-value = 0.1521
## alternative hypothesis: true common odds ratio is not equal to 1
## 95 percent confidence interval:
##   0.5005156 37.9302749
## sample estimates:
## common odds ratio 
##          4.357143

15. Prueba exacta de Fisher.

Se utiliza para establecer si existe una asociación entre dos variables cualitativas.

15.1. Estadística de prueba.

Los datos se resumen en tablas 2x2.

Col. 1 col. 2 suma
fila 1 \(x\) \(r-x\) \(r\)
fila 2 \(c-x\) \(N-r-c+x\) \(N-r\)
suma \(c\) \(N-c\) \(N\)

La distribución exacta de T el númeo de observaciones en la fila 1 columna 1 es la distribución hipergeométrica,

\[\begin{equation*} P(T=x)=\dfrac{\dbinom{r}{x}\dbinom{N-r}{c-x}}{\dbinom{N}{c}} \end{equation*}\]

para muestras grandes se puede aproximar a la distribución normal estándar, así:

\[\begin{equation*} Z=\dfrac{x-\dfrac{rc}{N}}{\sqrt{\dfrac{rc(N-r)(N-c)}{N^{2}(N-1)}}} \end{equation*}\]

15.2. Ejemplo.

Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 190.

mate<-matrix(c(1,3,9,1),nrow=2)
mate
##      [,1] [,2]
## [1,]    1    9
## [2,]    3    1
fisher.test(mate,alt="less")
## 
##  Fisher's Exact Test for Count Data
## 
## data:  mate
## p-value = 0.04096
## alternative hypothesis: true odds ratio is less than 1
## 95 percent confidence interval:
##  0.000000 0.897734
## sample estimates:
## odds ratio 
## 0.05545513

Se utilizaron los siguientes paquetes:

library(BSDA)

library(randtests)

library(PMCMRplus)

library(RVAideMemoire)

library(randtests)