Las pruebas no paramétricas o de libre distribución se utilizan como una alternativa a las pruebas paramétricas en los casos en los cuales no se cumplen ciertos supuestos o cuando los datos muestrales se presentan en escala nominal u ordinal.
Intenta establecer si las observaciones son aleatorias. Una racha es una secuencia de valores muestrales con una determinada característica común precedida y seguida por valores que no presentan esa característica.
\(V\): número total de rachas o corridas.
\(n_{1}\): categoría que ocurre menos.
\(n_{2}\): la otra categoría.
\(Z= \dfrac{V-\mu_{V}}{\sigma_{V}}\)
\(\mu_{V}=\dfrac{2n_{1}n_{2}}{n_{1}+n_{2}}+1\)
\(\sigma_{V}^{2}=\dfrac{2n_{1}n_{2}(2n_{1}n_{2}-n_{1}n_{2})}{(n_{1}+n_{2})^{2}(n_{1}+n_{2}-1}\)
Aproximación para muestras grandes.
Tomado del libro Probabilidad & Estadísticas para Ingeniería y Ciencias de Walpole, Myers, Myers y Ye. Página 688.
x<-c(3.6,3.9,4.1,3.6,3.8,3.7,3.4,4.0,3.8,4.1,3.9,4.0,3.8,4.2,4.1)
runs.test(x)
##
## Runs Test
##
## data: x
## statistic = 0.31399, runs = 8, n1 = 6, n2 = 7, n = 13, p-value = 0.7535
## alternative hypothesis: nonrandomness
Se utiliza para probar una hipótesis sobre la mediana de una población.
En una muestra aleatoria de tamaño n se reemplaza cada valor en la muestra que exceda a la mediana por un signo + y cada valor en la muestra menor que la mediana por un signo -.
\(Z=\dfrac{X-\mu}{\sigma}\)
\(\mu = np\)
\(\sigma= \sqrt{npq}\)
Para muestras grandes.
Tomado del libro Probabilidad & Estadísticas para Ingeniería y Ciencias de Walpole, Myers, Myers y Ye. Página 688.
x1<-c(1.5,2.2,0.9,1.3,2.0,1.6,1.8,1.5,2.0,1.2,1.7)
med<-median(x1)
SIGN.test(x1, md =med, alternative = "two.sided", conf.level = 0.95)
##
## One-sample Sign-Test
##
## data: x1
## s = 5, p-value = 1
## alternative hypothesis: true median is not equal to 1.6
## 95 percent confidence interval:
## 1.271273 2.000000
## sample estimates:
## median of x
## 1.6
##
## Achieved and Interpolated Confidence Intervals:
##
## Conf.Level L.E.pt U.E.pt
## Lower Achieved CI 0.9346 1.3000 2
## Interpolated CI 0.9500 1.2713 2
## Upper Achieved CI 0.9883 1.2000 2
En el caso de muestras pareadas se puede aplicar la prueba del signo.
A cada diferencia \(d_{i}\) se le asigna un sino + o - de acuerdo a si la diferencia entre los valore de cada pareja es positiva o negativa.
Tomado del libro Probabilidad & Estadísticas para Ingeniería y Ciencias de Walpole, Myers, Myers y Ye. Página 675.
cin<-c(4.2,4.7,6.6,7.0,6.7,4.5,5.7,6.0)
rad<-c(4.1,4.9,6.2,6.9,6.8,4.4,5.7,5.8)
SIGN.test(cin,rad, md = 0, alternative = "two.sided", conf.level = 0.95)
##
## Dependent-samples Sign-Test
##
## data: cin and rad
## S = 5, p-value = 0.4531
## alternative hypothesis: true median difference is not equal to 0
## 95 percent confidence interval:
## -0.1325 0.2650
## sample estimates:
## median of x-y
## 0.1
##
## Achieved and Interpolated Confidence Intervals:
##
## Conf.Level L.E.pt U.E.pt
## Lower Achieved CI 0.9297 -0.1000 0.200
## Interpolated CI 0.9500 -0.1325 0.265
## Upper Achieved CI 0.9922 -0.2000 0.400
La prueba se utiliza cuando se tiene n ensayos independientes con solo dos resultados posibles (éxito=1 o fracaso=0).
\(T\) número de éxitos que ocurren en el experimento. Se obtiene la robabilidad binomial.
Si el el número de ensayos es grande se puede aproximar a la distribución normal.
\[\begin{equation*} Z=\dfrac{T-np}{\sqrt{npq}} \end{equation*}\]
Ejemplo tomado del libro Practical nonparametric Statistics de W.J. Conover. Página 127.
binom.test(3,19,alternative="less")
##
## Exact binomial test
##
## data: 3 and 19
## number of successes = 3, number of trials = 19, p-value = 0.002213
## alternative hypothesis: true probability of success is less than 0.5
## 95 percent confidence interval:
## 0.0000000 0.3594256
## sample estimates:
## probability of success
## 0.1578947
Es un caso especial de la pruebe del signo. Se tienen dos variables dicotómicas que toman valores 0 y 1, que se pueden tabular en una tabla de contingencia 2x2.
\(Y_{i}=0\) | \(Y_{i}=1\) | |
---|---|---|
\(X_{i}=0\) | a | b |
\(X_{i}=1\) | c | d |
\[\begin{equation*} T=\dfrac{(b-c)^{2}}{b+c} \end{equation*}\]
Que tiene aproximadamente una distribución \(\chi^{2}\) con 1 grado de libertad.
Ejemplo tomado del libro Practical nonparametric Statistics de W.J. Conover. Página 168.
tabla<-matrix(c(63,21,4,2),byrow=TRUE,nrow=2,ncol=2)
mc<-mcnemar.test(tabla, correct=FALSE)
mc
##
## McNemar's Chi-squared test
##
## data: tabla
## McNemar's chi-squared = 11.56, df = 1, p-value = 0.0006739
Es una prueba útil para dos muestras relacionadas.
Para cada par de observaciones \((x_{i},y_{i})\) calcular las diferencias \(|d_{i}|=|y_{i}-x_{i}|\). Omitir cuando \(x_{i}=y_{i}\) y reducir \(n\).
El estadístico de prueba es: \(T\) suma de los rangos positivos. Los valores críticos se encuentran tabulados.
Si la muestra es grande utilizar:
\[\begin{equation*} Z=\dfrac{T-n(n+1)/4}{\sqrt{n(n+1)(2n+1)/24}} \end{equation*}\]
Ejemplo tomado del libro Practical nonparametric Statistics de W.J. Conover. Página 355.
firstborn<-c(86,71,77,68,91,72,77,91,70,71,88,87)
secondtwin<-c(88,77,76,64,96,72,65,90,65,80,81,72)
wilcox.test(firstborn,secondtwin,alternative="greater",paired=TRUE)
## Warning in wilcox.test.default(firstborn, secondtwin, alternative = "greater", :
## cannot compute exact p-value with ties
## Warning in wilcox.test.default(firstborn, secondtwin, alternative = "greater", :
## cannot compute exact p-value with zeroes
##
## Wilcoxon signed rank test with continuity correction
##
## data: firstborn and secondtwin
## V = 41.5, p-value = 0.2382
## alternative hypothesis: true location shift is greater than 0
Se prueba si existe diferencias entre las medias de dos poblaciones, suponiendo que las dos poblaciones son independientes.
Se asignan rangos a las observaciones \(n_{1}+n_{2}\) combinadas. Para las observaciones empatadas, asignar el promedio de los rangos que correspondan.
\(T=S-\dfrac{n(n+1)}{2}\)
Donde \(S\) es la suma de los rangos asignados a la primera muestra.
Para esta prueba los valores críticos están tabulados. Par muestras grandes, utilizar:
\[\begin{equation*} Z=\dfrac{T-n_{1}n_{2}/2}{\sqrt{n_{1}n_{2}(n_{1}+n_{2}+1)/12}} \end{equation*}\]
Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 276.
farm<-c(14.8,7.3,5.6,6.3,9.0,4.2,10.6,12.5,12.9,16.1,11.4,2.7)
town<-c(12.7,14.2,12.6,2.1,17.7,11.8,16.9,7.9,16.0,10.6,5.6,5.6,7.6,11.3,
8.3,6.7,3.6,1.0,2.4,6.4,9.1,6.7,18.6,3.2,6.2,6.1,15.3,10.6,1.8,5.9,
9.9,10.6,14.8,5.0,2.6,4.0)
wilcox.test(farm,town,alternative="greater")
## Warning in wilcox.test.default(farm, town, alternative = "greater"): cannot
## compute exact p-value with ties
##
## Wilcoxon rank sum test with continuity correction
##
## data: farm and town
## W = 243, p-value = 0.2639
## alternative hypothesis: true location shift is greater than 0
También llamada prueba H de Kruskal-Wallis, es una generalización de la prueba de suma de ranhos para el caso en el cual \(k>2\) poblaciones o tratamientos independientes. Es una alternativa del anális de varianza de un factor.
\[\begin{equation*} H=\dfrac{12}{n(n+1)}\displaystyle\sum_{i=1}^{k}\dfrac{R_{i}^{2}}{n_{i}}-3(n+1) \end{equation*}\]
Tien una distribución \(\chi_{2}\) con \(k-1\) grados de libertad.
Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 291.
method<-c(rep((1),9),rep((2),10),rep((3),7),rep((4),8))
yields<-c(83,91,94,89,89,96,91,92,90,91,90,81,83,84,83,88,91,89,84,
101,100,91,93,96,95,94,78,82,81,77,79,81,80,81)
KW<-kruskalTest(yields,method)
## Warning in kruskalTest.default(yields, method): Ties are present. Quantiles were
## corrected for ties.
KW
##
## Kruskal-Wallis test
##
## data: yields and method
## chi-squared = 25.629, df = 3, p-value = 1.141e-05
Comparaciones múltiples bajo diferentes métodos.
kwAllPairsConoverTest(yields,method)
## Warning in kwAllPairsConoverTest.default(yields, method): Ties are present.
## Quantiles were corrected for ties.
##
## Pairwise comparisons using Conover's all-pairs test
## data: yields and method
## 1 2 3
## 2 0.03392 - -
## 3 0.01963 1.1e-05 -
## 4 3.7e-07 0.00054 5.2e-10
##
## P value adjustment method: single-step
kwAllPairsDunnTest(yields,method)
## Warning in kwAllPairsDunnTest.default(yields, method): Ties are present. z-
## quantiles were corrected for ties.
##
## Pairwise comparisons using Dunn's all-pairs test
##
## data: yields and method
## 1 2 3
## 2 0.2438 - -
## 3 0.2438 0.0141 -
## 4 0.0021 0.0778 8.6e-06
##
## P value adjustment method: holm
## alternative hypothesis: two.sided
kwAllPairsNemenyiTest(yields,method)
## Warning in kwAllPairsNemenyiTest.default(yields, method): Ties are present, p-
## values are not corrected.
##
## Pairwise comparisons using Tukey-Kramer-Nemenyi all-pairs test with Tukey-Dist approximation
## data: yields and method
## 1 2 3
## 2 0.4818 - -
## 3 0.4123 0.0191 -
## 4 0.0025 0.1177 9.3e-06
##
## P value adjustment method: single-step
## alternative hypothesis: two.sided
kwManyOneConoverTest(yields,method)
## Warning in kwManyOneConoverTest.default(yields, method): Ties are present.
## Quantiles were corrected for ties.
##
## Pairwise comparisons using Conover's many-to-one test
## data: yields and method
## 1
## 2 0.019
## 3 0.011
## 4 1.2e-07
##
## P value adjustment method: single-step
## alternative hypothesis: two.sided
kwManyOneDunnTest(yields,method)
## Warning in kwManyOneDunnTest.default(yields, method): Ties are present. z-
## quantiles were corrected for ties.
##
## Pairwise comparisons using Dunn's many-to-one test
## data: yields and method
## 1
## 2 0.3464
## 3 0.2855
## 4 0.0013
##
## P value adjustment method: single-step
## alternative hypothesis: two.sided
kwManyOneNdwTest(yields,method)
## Warning in kwManyOneNdwTest.default(yields, method): Ties are present. p values
## are not corrected.
##
## Pairwise comparisons using Nemenyi-Damico-Wolfe many-to-one test
## data: yields and method
## 1
## 2 0.3490
## 3 0.2881
## 4 0.0013
##
## P value adjustment method: single-step
## alternative hypothesis: two.sided
Es una alternativa no parámetrica para el diseño en bloques aleatorios.
Se asignan rangos a las observaciones por bloques.
\(F_{r}=\dfrac{12}{bk(k+1)}\displaystyle\sum_{i=1}^{k}\left(R_{i}-\dfrac{b(k+1)}2\right)^2\)
Donde:
\(b\): número de bloques.
\(k\): número de tratamientos.
Tien una distribución \(\chi_{2}\) con \(k-1\) grados de libertad.
Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 371.
ans<-matrix(c(4,3,2,1,4,2,3,1,3,1.5,1.5,4,3,1,2,4,4,2,1,3,2,2,2,4,1,3,2,4,
2,4,1,3,3.5,1,2,3.5,4,1,3,2,4,2,3,1,3.5,1,2,3.5),byrow=TRUE,nrow=12)
dimnames(ans)<-list(1:12,c("1","2","3","4"))
friedmanTest(ans)
##
## Friedman rank sum test
##
## data: y
## Friedman chi-squared = 8.0973, df = 3, p-value = 0.04404
Comparaciones múltiples bajo diferentes métodos.
frdAllPairsConoverTest(ans)
##
## Pairwise comparisons using Conover's all-pairs test for a two-way balanced complete block design
## data: y
## 1 2 3
## 2 0.089 - -
## 3 0.129 0.999 -
## 4 0.917 0.326 0.417
##
## P value adjustment method: single-step
frdAllPairsExactTest(ans)
##
## Pairwise comparisons using Eisinga, Heskes, Pelzer & Te Grotenhuis all-pairs test with exact p-values for a two-way balanced complete block design
##
## data: y
## 1 2 3
## 2 0.12 - -
## 3 0.16 1.00 -
## 4 1.00 0.39 0.40
##
## P value adjustment method: holm
frdAllPairsMillerTest(ans)
##
## Pairwise comparisons using Miller, Bortz et al. and Wike all-pairs test for a two-way balanced complete block design
##
## data: y
## 1 2 3
## 2 0.15 - -
## 3 0.21 1.00 -
## 4 0.94 0.43 0.52
##
## P value adjustment method: none
frdAllPairsNemenyiTest(ans)
##
## Pairwise comparisons using Nemenyi-Wilcoxon-Wilcox all-pairs test for a two-way balanced complete block design
##
## data: y
## 1 2 3
## 2 0.10 - -
## 3 0.14 1.00 -
## 4 0.92 0.34 0.44
##
## P value adjustment method: single-step
frdAllPairsSiegelTest(ans)
##
## Pairwise comparisons using Siegel-Castellan all-pairs test for a two-way balanced complete block design
##
## data: y
## 1 2 3
## 2 0.13 - -
## 3 0.16 1.00 -
## 4 1.00 0.39 0.40
##
## P value adjustment method: holm
frdManyOneDemsarTest(ans)
##
## Pairwise comparisons using Demsar's many-to-one test for a two-way balanced complete block design
##
## data: y
## 1
## 2 0.066
## 3 0.066
## 4 0.527
##
## P value adjustment method: holm
## alternative hypothesis: two.sided
frdManyOneExactTest(ans)
##
## Pairwise comparisons using Eisinga-Heskes-Pelzer and Grotenhuis many-to-one test for a two-way balanced complete block design
## data: y
## 1
## 2 0.061
## 3 0.063
## 4 0.584
##
## P value adjustment method: holm
## alternative hypothesis: two.sided
frdManyOneNemenyiTest(ans)
##
## Pairwise comparisons using Nemenyi-Wilcoxon-Wilcox-Miller many-to-one test for a two-way balanced complete block design
## data: y
## 1
## 2 0.058
## 3 0.085
## 4 0.863
##
## P value adjustment method: single-step
## alternative hypothesis: two.sided
Es una prueba que se utiliza en un diseño en bloques aleatorios. Se asignan rangos dentro de bloques.
\[\begin{equation*} T=\dfrac{(b-1)B}{A_{2}-B} \end{equation*}\]
Donde:
\[\begin{equation*} B=\dfrac{1}{b}\displaystyle\sum_{j=1}^{k}S_{j}^{2} \end{equation*}\]
\[\begin{equation*} A_{2}=\displaystyle\sum_{i=1}^{b}\displaystyle\sum_{j=1}^{k}S_{ij}^{2} \end{equation*}\]
\[\begin{equation*} S_{j}=\displaystyle\sum_{i=1}^{b} \end{equation*}\]
\[\begin{equation*} S_{ij}=Q_{i}\left[R(X_{ij})-\dfrac{k+1}{2}\right] \end{equation*}\]
\(Q_{i}\): los rangos asignados a los bloques 1,2,…b
Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 375.
datos <- matrix(c( 5, 4, 7, 10, 12,1, 3, 1, 0, 2,16, 12, 22, 22, 35,
5, 4, 3, 5, 4,10, 9, 7, 13, 10,19, 18, 28, 37, 58,10, 7, 6, 8, 7),
nrow = 7, byrow = TRUE,dimnames =list(store = as.character(1:7),
brand = LETTERS[1:5]))
datos
## brand
## store A B C D E
## 1 5 4 7 10 12
## 2 1 3 1 0 2
## 3 16 12 22 22 35
## 4 5 4 3 5 4
## 5 10 9 7 13 10
## 6 19 18 28 37 58
## 7 10 7 6 8 7
qu<-quade.test(datos)
qu
##
## Quade test
##
## data: datos
## Quade F = 3.8293, num df = 4, denom df = 24, p-value = 0.01519
quadeAllPairsTest(datos)
##
## Pairwise comparisons using Quade's test with TDist approximation
## data: datos
## A B C D
## B 0.835 - - -
## C 1.000 0.862 - -
## D 0.738 0.092 0.612 -
## E 0.291 0.021 0.215 1.000
##
## P value adjustment method: holm
La prueba Q de Cochran es una prueba no paramétrica para verificar si k tratamientos tienen efectos idénticos.
Corresponde a un diseño en bloques (las observaciones están relacionadas) cuando la variable dependiente toma solo dos valores (0 y 1).
\[\begin{equation*} T=\dfrac{c(c-1)\displaystyle\sum_{j=1}^{c}C_{j}^{2}-(c-1)N^{2}}{cN-\displaystyle\sum_{i=1}^{r}R_{i}^{2}} \end{equation*}\]
Tiene aproximadamente una distribución \(\chi_{2}\) con \(c-1\) grados de libertad.
Donde:
\(c\): número de tratamientos (columnas).
\(r\): número de bloques (filas).
\(R_{i}\): el total de la fila \(i=1, 2,...r\)
\(C_{j}\): la suma de la columna \(j=1,2,...c\)
Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 252.
res<-c(1,1,1,1,1,1,0,1,0,1,1,0,0,0,0,1,1,1,1,1,1,1,1,0,
0,0,1,0,1,0,1,1,1,1,1,1)
sportsman=gl(3,1,36,labels=LETTERS[1:3])
game<-gl(12,3,labels=letters[1:12])
mat<-cbind(res,sportsman,game)
mat
## res sportsman game
## [1,] 1 1 1
## [2,] 1 2 1
## [3,] 1 3 1
## [4,] 1 1 2
## [5,] 1 2 2
## [6,] 1 3 2
## [7,] 0 1 3
## [8,] 1 2 3
## [9,] 0 3 3
## [10,] 1 1 4
## [11,] 1 2 4
## [12,] 0 3 4
## [13,] 0 1 5
## [14,] 0 2 5
## [15,] 0 3 5
## [16,] 1 1 6
## [17,] 1 2 6
## [18,] 1 3 6
## [19,] 1 1 7
## [20,] 1 2 7
## [21,] 1 3 7
## [22,] 1 1 8
## [23,] 1 2 8
## [24,] 0 3 8
## [25,] 0 1 9
## [26,] 0 2 9
## [27,] 1 3 9
## [28,] 0 1 10
## [29,] 1 2 10
## [30,] 0 3 10
## [31,] 1 1 11
## [32,] 1 2 11
## [33,] 1 3 11
## [34,] 1 1 12
## [35,] 1 2 12
## [36,] 1 3 12
cochran.qtest(res~sportsman|game)
##
## Cochran's Q test
##
## data: res by sportsman, block = game
## Q = 2.8, df = 2, p-value = 0.2466
## alternative hypothesis: true difference in probabilities is not equal to 0
## sample estimates:
## proba in group A proba in group B proba in group C
## 0.6666667 0.8333333 0.5833333
La prueba Cox and Stuart se utiliza para verificar si los valores que se obtienen en una muestra siguen alguna tendencia.
Los datos consisten de una secuencia de \(X_{1},...X_{n}\) observaciones en el orden en que fueron observadas.
Agrupar las variables en pares \((X_{1},X_{1+c})\), \((X_{2},X_{2+c}\), \(X_{n'-c},X_{n'}\) donde \(c=n'/2\) si \(n'\) es par y \(c=(n'+1)/2\) si \(n'\) es impar.
Reemplazar cada par por \(+\) si \(X_{i}<X_{i+c}\) o por \(-\) si \(X_{i}>X_{i+c}\)
Eliminar empates.
El estadístico de prueba es
\(T=\) número total de \(+\).
\(T\) tiene una distribución binomial con \(p=1/2\).
Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 171.
precipitation <- c(45.25, 45.83, 41.77, 36.26, 45.37, 52.25, 35.37, 57.16, 35.37, 58.32,
41.05, 33.72, 45.73, 37.90, 41.72, 36.07, 49.83, 36.24, 39.90)
cox.stuart.test(precipitation)
##
## Cox Stuart test
##
## data: precipitation
## statistic = 4, n = 9, p-value = 1
## alternative hypothesis: non randomness
Se utiliza para probar la asociación entre dos variables dicotómicas en presencia de una tercera variable.
Los datos se resumen en varias tablas de contingencia 2x2
Col. 1 | col. 2 | suma | |
---|---|---|---|
fila 1 | \(x_{i}\) | \(r_{i}-x_{i}\) | \(r_{i}\) |
fila 2 | \(c_{i}-x_{i}\) | \(N_{i}-r_{i}-c_{i}+x_{i}\) | \(N_{i}-r_{i}\) |
suma | \(c_{i}\) | \(N_{i}-c_{i}\) | \(N_{i}\) |
\[\begin{equation*} T=\dfrac{\sum x_{i}-\sum \dfrac{r_{i}c_{i}}{N_{i}}}{\sqrt{\sum \dfrac{r_{i}c_{i}(N_{i}-r_{i})(N_{i}-c_{i})}{N_{i}^{2}(N_{i}-1)}}} \end{equation*}\]
\(T\) tiene aproximadamente una distribución normal estándar.
Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 194.
mh<-array(c(10,12,1,1,9,11,0,1,8,7,0,3),dim=c(2,2,3),dimnames=list(Treat=c("treatment","control"),
resul=c("succes","failure"),groups=c("Group 1","Group 2","Group 3")))
mh
## , , groups = Group 1
##
## resul
## Treat succes failure
## treatment 10 1
## control 12 1
##
## , , groups = Group 2
##
## resul
## Treat succes failure
## treatment 9 0
## control 11 1
##
## , , groups = Group 3
##
## resul
## Treat succes failure
## treatment 8 0
## control 7 3
mantelhaen.test(mh,correct=FALSE)
##
## Mantel-Haenszel chi-squared test without continuity correction
##
## data: mh
## Mantel-Haenszel X-squared = 2.0515, df = 1, p-value = 0.1521
## alternative hypothesis: true common odds ratio is not equal to 1
## 95 percent confidence interval:
## 0.5005156 37.9302749
## sample estimates:
## common odds ratio
## 4.357143
Se utiliza para establecer si existe una asociación entre dos variables cualitativas.
Los datos se resumen en tablas 2x2.
Col. 1 | col. 2 | suma | |
---|---|---|---|
fila 1 | \(x\) | \(r-x\) | \(r\) |
fila 2 | \(c-x\) | \(N-r-c+x\) | \(N-r\) |
suma | \(c\) | \(N-c\) | \(N\) |
La distribución exacta de T el númeo de observaciones en la fila 1 columna 1 es la distribución hipergeométrica,
\[\begin{equation*} P(T=x)=\dfrac{\dbinom{r}{x}\dbinom{N-r}{c-x}}{\dbinom{N}{c}} \end{equation*}\]
para muestras grandes se puede aproximar a la distribución normal estándar, así:
\[\begin{equation*} Z=\dfrac{x-\dfrac{rc}{N}}{\sqrt{\dfrac{rc(N-r)(N-c)}{N^{2}(N-1)}}} \end{equation*}\]
Ejemplo tomado del libro Practical Nonparametric Statistics de W.J. Conover. Página 190.
mate<-matrix(c(1,3,9,1),nrow=2)
mate
## [,1] [,2]
## [1,] 1 9
## [2,] 3 1
fisher.test(mate,alt="less")
##
## Fisher's Exact Test for Count Data
##
## data: mate
## p-value = 0.04096
## alternative hypothesis: true odds ratio is less than 1
## 95 percent confidence interval:
## 0.000000 0.897734
## sample estimates:
## odds ratio
## 0.05545513
Se utilizaron los siguientes paquetes:
library(BSDA)
library(randtests)
library(PMCMRplus)
library(RVAideMemoire)
library(randtests)