Unidades estándar, significancia y tipos de error

Antonio Martínez

6 de abril de 2018

Unidades estándar

Las unidades estándar o puntuaciones z son transformaciones que permiten medir la distancia de un valore en desviaciones estándar con respecto de la media de la distribución.

El cálculo de las puntuaciones z tienen una distribución normal con media cero y desviación estándar de uno. Estas características permiten determinar cuando una medición representa un valor extremo o atípico para la distribución, considerando que 99% de la distribución se incluye dentro de \(\pm3\) desviaciones estándar, cualquier puntuación menor a -3 o mayor a 3 no es un valor esperado para esa distribución.

Las unidades estándar son útiles para comparar datos de dos poblaciones tomando como referencia su propia población. Por ejemplo, ¿quién es más alto con respecto a su población? un mexicando de 177 cm de estatura o Shaquille O´Neal. Considerando que la media de estatura para hombres mexicanos es de 164 cm (DE = 65) y la media de estatura para los jugadores de la NBA es de 200 cm (DE = 76).

Las puntuaciones z se calculan mediante la fórmula:

\[z={x_i-\mu \over \sigma}\]

Donde:
\(x_i\) = íesimo valor de la población
\(\mu\) = media de la población
\(\sigma\) = desviación estándar de la población

De manera que:

\(z_{mexicano}={177-164 \over 65}= 0.2\) y \(z_{Shaq}={216-200 \over 76}= 0.21\)

Uso apropiado o inapropiado de la puntuación z

Las puntuaciones estándar no son adecuadas para comparar directamente dos poblaciones, por ejemplo, el estudiante de un examen de psicología que obtuvo una puntuación z de \(1.3\) no sabe más de psicología de lo que un estudiante sabe de física cuántica si obtuvo una puntuación z \(0.5\) en un examen de física cuántica.

Sin embargo, si el mismo estudiante presentó tanto el examen de psicología como el de física cuántica y obtuvo \(1.3\) y \(0.5\) de calificación en puntuaciones z, respectivamente, podemos afirmar que sabe más de psicología que de física cuántica.

Niveles de significancia

La significancia estadística representa, desde una perspectiva frecuentista, la probabilidad de que el valor de una medida se deban únicamente al azar. A la representación matemática de la significancia se le denomina nivel de significancia (\(\alpha\)).

Los niveles de significancia o niveles alfa se derivan de un modelo lógico que toma en cuenta a varias muestras de la población. Generalmente se manejan tres niveles de significancia de acuerdo al rigor que se desee tener en los resultados: .05, .01, .001.

[1] 97

El nivel de significancia es un acuerdo que se toma a priori para determinar si los resultados obtenidos se deben únicamente al azar.

Los niveles de significancia se utilizan en la prueba de hipótesis si un análisis obtiene un nivel de significancia mayor al acordado no se rechaza la hipótesis nula. Al tomar decisiones con respecto a la hipótesis nula se pueden cometer dos tipos de error.

Tipos de error