\[\displaystyle M_{X}(t):=\mathbb {E} \left(e^{tX}\right),\quad t\in \mathbb {R}\]
la medida de asimetría más utilizada parte del uso del tercer momento estándar. La razón de esto es que nos interesa mantener el signo de las desviaciones con respecto a la media, para obtener si son mayores las que ocurren a la derecha de la media que las de la izquierda. Sin embargo, no es buena idea tomar el momento estándar con respecto a la media de orden 1. Debido a que una simple suma de todas las desviaciones siempre es cero. En efecto, si por ejemplo, los datos están agrupados en {k} k clases, se tiene que:
\(\displaystyle \sum _{i=1}^{k}f_{i}(x_{i}-\mu )=\sum _{i=1}^{k}f_{i}x_{i}-\mu \sum _{i=1}^{k}f_{i}=\mu -\mu =0\) en donde \(\displaystyle x_{i}\) representa la marca de la clase \(\displaystyle i\) i-ésima y \(\displaystyle f_{i}\) denota la frecuencia relativa de dicha clase. Por ello, lo más sencillo es tomar las desviaciones al cubo.
Representado por \(\displaystyle \gamma _{1}\), se define como:
\[\displaystyle \gamma _{1}={\frac {\mu _{3}}{\sigma ^{3}}},\!\]
donde \(\displaystyle \mu _{3}\) es el tercer momento en torno a la media y $$ es la desviación estándar.
Si \(\displaystyle \gamma _{1}>0\), la distribución es asimétrica positiva o a la derecha.
Si \(\displaystyle \gamma _{1}<0\), la distribución es asimétrica negativa o a la izquierda.
Si la distribución es simétrica, entonces sabemos que \(\displaystyle \gamma _{1}=0\). El recíproco no es cierto: es un error común asegurar que si \(\displaystyle \gamma _{1}=0\) entonces la distribución es simétrica (lo cual es falso).
Todo bogotano es Colombiano, pero no todo colombiano es bogotano
es una característica de forma de su distribución de frecuencias/probabilidad.
Según su concepción clásica, una mayor curtosis implica una mayor concentración de valores de la variable muy cerca de la media de la distribución (pico) y muy lejos de la misma (colas), al tiempo que existe una relativamente menor frecuencia de valores intermedios (hombros). Esto explica una forma de la distribución de frecuencias/probabilidad con colas más gruesas, con un centro más apuntado y una menor proporción de valores intermedios entre pico y colas.
Una mayor curtosis no implica una mayor varianza, ni viceversa.
Un coeficiente de apuntamiento o de curtosis es el cuarto momento con respecto a la media estandarizado que se define como:
\[\displaystyle \beta _{2}={\frac {\mu _{4}}{\sigma ^{4}}}\]
donde \(\displaystyle \mu _{4}\) es el 4º momento centrado o con respecto a la media y $$ es la desviación estándar.
En la distribución normal se verifica que \(\displaystyle \mu _{4}=3\sigma ^{4}\), donde {_{4}} \(\displaystyle \mu _{4}\) es el momento de orden 4 respecto a la media y \(\displaystyle \sigma\) la desviación típica. Por eso, está más extendida la siguiente definición del coeficiente de curtosis:
\(\displaystyle g_{2}={\frac {\mu _{4}}{\sigma ^{4}}}-3\)
donde se ha sustraído 3 (que es la curtosis de la distribución normal o gaussiana) con objeto de generar un coeficiente que valga 0 para la Normal y tome a ésta como referencia de curtosis.
Tomando, pues, la distribución normal como referencia, una distribución puede ser:
Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto con las medidas de apuntamiento o curtosis se utilizan para contrastar si se puede aceptar que una distribución estadística sigue la distribución normal. (ver, p.ej., el Test de Jarque-Bera) o para detección de atípicos.
El test estadístico \(JB\) se define como:
\[\displaystyle JB=\frac {n-k+1}{6}\left(\gamma _{1}^{2}+{\frac {1}{4}}(\beta_2-3)^{2}\right) \]
donde n es el número de observaciones (o grados de libertad en general); \(\gamma _{1}\) es la asimetría de la muestra, \(\beta_2\) la curtosis de la muestra y k el número de regresores