En conjunto, las medidas de tendencia central y de dispersión le dan forma a la curva de una distribución que, como ya comentamos, puede ser una forma simétrica o asimétrica.

La asimetría de una distribución junto con otra de sus características, la curtosis, permite conocer la forma de una distribución.

Distribución normal

Se conoce como curva normal a la distribución con forma de campana. También se le conoce como distribución Gaussiana o campana de Gauss, en honor al matemático Carl Friederich Gauss (Gupta, 2011). La curva normal se describe mediante la siguiente ecuación:

\[Y={N \over \sqrt{2\pi\sigma}}e^{{-(x-\mu)^2 \over 2\sigma^2}}\]

Donde,
\(Y\) = La altura de la curva en el punto X
\(\mu\) = Media aritmética de la distribución
\(\sigma\) = Desviación estándar de la distribución
\(N\) = Frecuencia total de la distribución
\(\pi\) = Constante con valor aproximado de 3.1416
\(e\) = Constante con valor aproximado de 2.7183

Una distribución normal cumple con las siguientes características:

  1. Tiene una única moda que coincide con su media aritmética y mediana.
  2. Es asintótica al eje de las abscisas.
  3. El área total bajo la curva es igual a 1.
  4. Es simétrica con respecto a su media aritmética.
  5. La distancia entre la línea media y la inflexión de la curva es igual a una desviación estándar.
  6. El área comprendida bajo la curva a \(\pm\) una desviación estándar es aproximadamente 68% de la distribución y entre \(\pm2\) desviaciones estándar es aproximadamente 95% de la distribución.
  7. La forma de la curva depende de la media y la varianza.

La normalidad de una curva se contrasta mediante los coeficientes de asimetría y curtosis propuestos por Fisher quien los denominó como coeficientes \(\gamma_1\) y \(\gamma_2\) respectivamente.

Asimetría

Se denomina así a la falta de simetría en la distribución con respecto de la media. Con base en su asimetría, una curva puede ser simétrica o tener asimetría positiva o negativa.

En la asimetría negativa la media se sitúa a la izquierda del grueso de los datos y de la mediana, por el contrario, en la asimetría positiva la media se sitúa a la derecha.

El coeficiente \(\gamma_1\) de Fisher se calcula mediante la fórmula:

\[\gamma_1=\displaystyle\frac{{1 \over n}\Sigma(x_i-\mu)^3n_i}{\left({1 \over n}\Sigma(x_i-\mu)^2n_i\right)^{3 \over 2}}\]

Donde:
\(x_i\) = La íesima de las observaciones
\(\mu\) = La media aritmética
\(n\) = El total de observaciones
\(n_i\) = La frecuencia de la íesima observación

Cuando el coeficiente \(\gamma_1\) es menor a cero, la asimetría es negativa, cuando es igual a cero la distribución es simétrica y cuando es mayor a cero la asimetría es positiva.

Curtosis

La curtosis informa sobre que tanto se aglutinan los datos con respecto de la media. Datos muy dispersos respecto de su media generan una distribución platicúrtica (aplanada), datos muy aglutinados alrededor de la media generan una distribución leptocúrtica (picuda) y una distribución normal presenta una curva mesocúrtica.

El coeficiente \(\gamma_2\) de Fisher se calcula mediante la fórmula:

\[\gamma_2=\displaystyle\frac{{1 \over n}\Sigma(x_i-\mu)^4n_i}{\left({1 \over n}\Sigma(x_i-\mu)^2n_i\right)^2}-3\]

Cuando la distribución es mesocúrtica el \(\gamma_2\) adquiere un valor de 3 pero en general la fórmula se adecúa para que el resultado sea cero igual que en la asimetría (de ahí el \(-3\) en la ecuación).

Cuando \(\gamma_2\) es menor a cero la distribución es platicúrtica, cuando es igual a cero se considera mesocúrtica y cuando es mayor a cero la distribución es leptocúrtica.

Los coeficientes de asimetría y curtosis se pueden obtener fácilmente, junto con otras medidas descriptivas de la distribución, en un resumen de la distribución mediante la función describe() del paquete psych.

library(psych)
describe(negativa)
   vars   n  mean   sd median trimmed   mad   min   max range skew
X1    1 133 53.65 13.6  50.64   52.68 13.47 26.54 88.41 61.86 0.56
   kurtosis   se
X1    -0.41 1.18
describe(simetrica)
   vars    n  mean   sd median trimmed  mad   min   max range  skew
X1    1 1000 49.81 9.88   49.8   49.78 9.44 16.04 81.96 65.92 -0.05
   kurtosis   se
X1     0.26 0.31
describe(platicurtica)
   vars   n  mean   sd median trimmed  mad   min   max range skew kurtosis
X1    1 135 34.24 7.79  33.49   34.13 9.25 20.68 49.93 29.25  0.1    -1.04
     se
X1 0.67

Obtener coeficientes iguales a cero resulta muy complicado, por eso se tiene una convención en la que los valores entre \(\pm0.5\) se consideran iguales a cero.

Distribución binomial

Es una distribución de probabilidad para una variable discreta en el que cualquier ensayo puede tener sólo dos resultados a los que se denomina arbitrariamente éxito o fracaso.

La probabilidad de éxito (\(p\)) se mantiene constante de ensayo a ensayo ya que los ensayos son independientes, la probabilidad de fracaso (\(q\)) se obtiene de \(1 - p\).

La distribución binomial se conforma de n número de ensayos en los cuales se calcula el número de éxitos (\(x\)) mediante la ecuación:

\[p(X=x)={n! \over x!(n-x)!}p^xq^{n-x}\]

Donde:
\(X\) = variable aleatoria
\(x\) = número de resultados exitoso
\(n\) = número de ensayos

Obteniendo \(p\) podemos conocer la media de la distribución binomial a la cual se conoce como esperanza matemática:

\[\mu=np\]

Y también su desviación estándar:

\[\sigma=\sqrt{npq}\]

Un ejemplo de distribución binomial es la probabilidad de que en una muestra de 10 personas una tenga trastorno de ansiedad generalizada conociendo que la prevalencia de este trastorno en la población es de 20% (\(p = 0.20\)).

\[q=1-p=1-0.20=0.80\]
\[p(X=1)={10! \over 1!(10-1)!}(0.2)^1(0.8)^9=0.2684\]

Si queremos conocer la probabilidad de que la muestra tenga menos de dos integrantes con trastorno de ansiedad generalizada:

\[p(X<2)=p(X=0)+p(X=1)={10! \over 1!10!}(0.2)^0(0.8)^10+0.2684=0.3758\]

La probabilidad de variables binomiales se puede calcular de la siguiente forma:

#Probabilidad de un éxito en diez eventos
pX1<- dbinom(1,10,.2)
pX1
[1] 0.2684355
#Probabilidad de ningún éxito en diez eventos
pX2<- dbinom(0,10,.2)
pX2
[1] 0.1073742
#Probabilidad de menos de dos éxitos en diez eventos
pX1+pX2
[1] 0.3758096
round(pX1+pX2,4)
[1] 0.3758

Un caso específico de la distribución binomial es aquel en el que únicamente hay un solo evento y se conoce como distribución de Bernoulli.

Distribución t

Esta distribución se basa en el trabajo de William Sealy Gosset, químico de la cervecería Guinness que, debido a las políticas de la empresa publicó su trabajo bajo el pseudónimo de Student.

La distribución t es muy parecida a la distribución normal, tiene una media de cero y una desviación estándar mayor a uno con grados de libertad (gl) de k - 1, debido a que la dispersión de los datos con respecto de la media es mayor que en la distribución normal, las colas de la distribucion son más gruesas. Mientras más grados de libertad tenga la distribución t más se asemejará a la distribución normal.

Comparando una distribución t (gl = 3) con una distribución normal tenemos que:

set.seed(123)
describe(rnorm(1000,0,1))
   vars    n mean   sd median trimmed  mad   min  max range skew kurtosis
X1    1 1000 0.02 0.99   0.01    0.01 0.96 -2.81 3.24  6.05 0.07    -0.08
     se
X1 0.03
describe(rt(1000,df=3))
   vars    n  mean   sd median trimmed  mad   min   max range skew
X1    1 1000 -0.02 1.66  -0.03   -0.02 1.12 -8.13 11.72 19.85 0.46
   kurtosis   se
X1     6.37 0.05

Distribución Ji cuadrada

Es una distribución de probabilidad continua con un parámetro k que indica los grados de libertad (gl). Esta distribución sólo presenta valores positivos debido a la conformación de su estadístico (el cuadrado de las diferencias entre valores observados y esperados).

(continuará)