GLOSARIO ESTADÍSTICO

  1. Población: Conjunto de individuos de interés. Normalmente no se dispone de información de toda la población y se recurre a muestras.

  2. Superpoblación: Relación entre la población humana y el medio ambiente. fenómeno que se produce cuando una elevada densidad de población provoca un empeoramiento del entorno, una disminución en la calidad de vida o situaciones de hambre y conflictos.

  3. Muestra: Subgrupos de observaciones de la población de estudio.

  4. Censo: Estudio de una zona determinada que da como resultado la enumeración de toda la población y la recopilación de la información demográfica, social y económica concerniente a dicha población en un momento dado.

  5. Parámetro: Es cualquier valor característico de la población. Ejemplo: la media de la población, la desviación típica de la población. Sin embargo estos valores son desconocidos porque no siempre podemos tener todos los datos de la población para calcularlos.

  6. Estadística (Estadígrafo): es un estadístico, un individuo que se especializa en estadística. Es el valor calculado en base a los datos que se obtienen sobre una muestra y por lo tanto es una estimación de los parámetros. Entre los más usados se tiene la media muestral y la desviación estándar muestral.

  7. Estimación: Técnicas estadísticas que a partir de la información de la estadística descriptiva pretenden conocer cómo es la población en global. Existen técnicas de estimación puntuales y por intervalos de confianza.

  8. Sesgo: - La diferencia entre el valor del parámetro y su valor esperado. También se utiliza en contraposición de aleatorio, así una muestra sesgada es no aleatoria. Se denomina así a la asimetría que presenta una distribución de frecuencias. Puede ser sesgo negativo o a la izquierda y sesgo positivo o a la derecha.

  9. Simetría: Es una medida que refleja si los valores muestrales se extienden o no de igual forma a ambos lados de la media.

  10. Curtosis: Es una medida de forma. También se conoce como medida de apuntamiento mide si los valores de la distribución están más o menos concentrados alrededor de los valores medios de la muestra.

  11. Inferencia: Es el proceso por medio del cual se hacen aseveraciones o estimaciones de un todo, a partir de sus partes o elementos. Conclusiones a partir de premisas.

  12. Inducción: Procedimiento basado en el conocimiento el cual consiste en analizar a través de la observación, situaciones particulares a fin de originar una conclusión.

  13. Deducción: Es aquella cantidad de dinero que se resta del total devengado, lográndose así el líquido que percibe un trabajador. Acción de extraer un juicio a partir de hechos, proposiciones o principios, sean generales o particulares.

  14. Variable: Es una característica de la población o de la muestra cuya medida puede cambiar de valor. Se representa simbólicamente mediante las letras del alfabeto. Según su naturaleza puede ser cualitativa y cuantitativa. Objeto matemático que puede tomar diferentes valores. Generalmente asociado a propiedades o características de las unidades de la muestra. Lo contrario de variable es constante.

  15. Constante: Es un número arbitrario que no cambia.

  16. Variable cualitativa: Es aquella que representa cualidades, atributos o características no numéricas y estas pueden ser nominales y ordinales.

  17. Variable cuantitativa: Es aquella característica de la población o de la muestra que es posible representar numéricamente. Éstas pueden ser continua y discreta.

  1. Continua: Es una variable cuantitativa. Es la característica de la población, cuyos valores están representados mediante el conjunto de los números reales. Puede tomar cualquier valor real dentro de un intervalo. Por ejemplo, la velocidad de un vehículo puede ser 80,3 km/h, 94,57 km/h.

  2. Discreta: Es una variable cuantitativa. Es la característica de la población, cuyos valores están representados mediante el conjunto de los números naturales. Por ejemplo, el número de alumnos de un aula.

  1. Escala de Medición: La distribución de datos puede recogerse en distintas escalas: nominal, dicotómica, discreta o continua.
  1. Nominal: es una escala de medición en la cual los números sirven como “etiquetas” solamente para identificar o clasificar un objeto. Normalmente trata sólo con variables no numéricas (no cuantitativas).
  2. Ordinal, Intervalo, Razón
  1. Variable Categórica: Es una variable con un número limitado de valores distintos o categorías (por ejemplo, sexo o religión). Las variables categóricas pueden ser nominales u ordinales. Es una variable que puede tomar uno de un número limitado, y por lo general fijo, de posibles valores, asignando a cada unidad individual u otro tipo observación a un grupo en particular o categoría nominal sobre la base de alguna característica cualitativa.

  2. Medida de tendencia central: Las medidas de tendencia central son medidas estadísticas que pretenden resumir en un solo valor a un conjunto de valores. Representan un centro en torno al cual se encuentra ubicado el conjunto de los datos.

  3. Media aritmética: También llamada promedio o media, de un conjunto finito de números es el valor característico de una serie de datos cuantitativos. Es una medida de tendencia central que denota el promedio de un conjunto de datos

  4. Media armónica: Es un valor que se obtiene como la inversa de la media de las inversas de las observaciones. Se le denota por H.

  5. Media geométrica: Es una medida de tendencia central. Dado dos números y1 e y2, llamaremos media geométrica (G) de estos números a la raíz cuadrada del producto de los mismos.

  6. Media ponderada: Es un tipo de media que otorga diferentes pesos a los distintos valores sobre los que se calcula. Se diferencia de la media aritmética en que no les da la misma importancia a todos los valores.

  7. Media truncada: medida de tendencia central estadística, similar a un promedio y una mediana. Para el cálculo del promedio en este caso previamente se descartan porciones de la distribución de probabilidad o muestra en el extremo inferior y superior, típicamente se descarta igual cantidad en ambos extremos.

  8. Media winsorizada: Es un índice de tendencia central resistente a las desviaciones de los datos extremos de la distribución. Una vez ordenados los datos, un determinado porcentaje de valores extremos se sustituyen por el valor inmediatamente anterior o posterior y se calcula la media de todos los valores.

  9. Mediana: Es una medida de tendencia central. Es el valor que divide al conjunto de datos ordenados, en aproximadamente dos partes: 50% de valores son inferiores y otro 50% son superiores. Por ejemplo, si decimos que la mediana de los sueldos de los obreros de una empresa es de 800 soles mensuales, estamos indicando que el 50% gana menos que 800 y el otro 50% gana más.

  10. Moda: Es una medida de tendencia central es el valor de la variable que tiene mayor frecuencia absoluta, la que más se repite es la única medida de centralización que tiene sentido estudiar en una variable cualitativa, pues no precisa la realización de ningún cálculo.

  11. Medida de dispersión: Valor numérico que ofrezca información sobre el grado de variabilidad de una variable. En otras palabras, las medidas de dispersión son números que indican si una variable se mueve mucho, poco, más o menos que otra. La razón de ser de este tipo de medidas es conocer de manera resumida una característica de la variable estudiada.

  12. Varianza: Es una medida de dispersión de la información. Se obtiene como el promedio de los cuadrados de las desviaciones de los valores de la variable respecto de su media aritmética.

  13. Desviación típica (Estándar): es una medida de dispersión que se obtiene como la raíz cuadrada de la varianza.

  14. Desviación media: Es una medida de dispersión. Es un número que representa la media de los valores absolutos de las desviaciones respecto a su media aritmética. Se expresa en la misma unidad en la que se presentan los datos. Se la denota como DM.

  15. Rango: Conocido también como recorrido, es un número que mide la amplitud de los valores de un conjunto de datos y se calcula por diferencia entre el valor mayor y el valor menor.

  16. Rango intercuartílico: se le llama rango intercuartílico o rango intercuartil, a la diferencia entre el tercer y el primer cuartil de una distribución. Es una medida de la dispersión estadística.

  17. Coeficiente de variación: Es una medida de dispersión relativa y se calcula dividiendo la desviación típica entre la media aritmética.

  18. Cuartiles: Es una medida de posición no central o de localización. Los cuartiles son los tres valores que dividen la distribución en cuatro partes iguales, es decir, en cuatro intervalos dentro de cada cual están incluidos el 25% de los datos de la distribución:

  1. Inferior: Q 1 Representa el primer cuartil y se interpreta como que el 25% de la distribución es menor que el Q 1 obtenido.

  2. Superior: Q3 Representa el tercer cuartil y se interpreta como que el 75% de la distribución, es menor que el Q3 obtenido.

  1. Percentiles: Es el valor que resulta de dividir el conjunto de datos en 100 partes iguales. Cada parte representa al 1% del total

  2. Índice: Es la relación expresada en porcentaje entre el precio, cantidad o valor de un bien y servicio o conjunto de bienes y servicios, en un período de estudio y el precio, cantidad o valor de este bien y servicio o conjunto de bienes y servicios en el periodo de referencia o período base.

  3. Diagrama de barras: Es un gráfico utilizado para representar la distribución de frecuencias de una variable cualitativa y cuantitativa discreta.

  4. Diagrama de sectores: Grafico Circular, Es un gráfico utilizado para representar la distribución de frecuencias relativas de una variable cualitativa.

  5. Diagrama de puntos (dispersión): Un diagrama de puntos es una gráfica utilizada para ilustrar un número reducido de datos, la cual permite identificar con facilidad dos características:

  1. La localización de los datos.
  2. La dispersión o variabilidad de los datos.
  1. Diagrama de líneas: Son adecuadas para representar datos cuantitativos y se pueden usar también para datos cualitativos ordinales. Las gráficas de líneas muestran el cambio del valor de los datos a través de sus valores ordenados con respecto a un criterio.

  2. Pictograma: Son gráficos vistosos, similares a los gráficos de barras, pero empleando un dibujo alusivo al tema que representa, en una determinada escala para expresar la unidad de medida de los datos.

  3. Histograma: Gráfico utilizado para representar la distribución de frecuencias de una variable continua. Describe el comportamiento de un conjunto de datos en cuanto a su tendencia central, forma y dispersión.

  4. Diagrama de cajas: Conocido también como BOXPLOT. Es un importante gráfico del análisis exploratorio de datos. Al igual que el histograma, permite tener una idea visual de la distribución de los datos. Permite determinar si hay simetría, ver el grado de variabilidad existente y detectar los “outliers” (datos muy diferentes al conjunto de información), es decir la existencia de posibles datos discordantes.

  5. Diagrama radial: Los gráficos radiales son una forma de comparar múltiples variables cuantitativas. … Los gráficos radiales también son útiles para ver qué variables son altas o bajas dentro de un conjunto de datos, haciéndolos ideales para mostrar el rendimiento. A cada variable se le proporciona un eje que empieza en el centro.

  6. Ojiva: Es un gráfico acumulativo de frecuencias o frecuencias relativas. Existen las ojivas mayor que y menor que.

  7. Frecuencia: La frecuencia de un evento es el número de veces en que dicho evento se repite durante un experimento o muestra estadística. Es el número de veces que la variable asume un valor dado o pertenece a una clase dada.

  8. Frecuencia relativa: Es un valor que se obtiene como el cociente de la frecuencia absoluta (ni) sobre el tamaño de la muestra (N). Simbólicamente se representa por hi.

  9. Proporción: Es el número de observaciones con una característica en particular entre la población de referencia. es un cociente en el que el numerador está incluido en el denominador. Por ejemplo, si en una población de 25.000 habitantes se diagnostican 1.500 pacientes con diabetes, la proporción de diabetes en esa población es de 1.500/25.000 = 0.06 (6%). El numerador siempre está incluido en el denominador. Se expresa en porcentaje.

  10. Porcentaje: es un símbolo matemático, que representa una cantidad dada como una fracción en 100 partes iguales. También se le llama comúnmente tanto por ciento donde por ciento significa «de cada cien unidades».

  11. Tasa (ratio): Es la relación del número de casos, frecuencias o eventos de una categoría entre el número total de observaciones, multiplicada por un múltiplo de 10, generalmente 100 o 1000.

  12. Coeficiente de disparidad (ODDS ratio) GINI: Es una medida de la desigualdad. Mide la distribución o nivel de concentración del ingreso o renta. El coeficiente de Gini es un número entre 0 y 1, en donde 0 corresponde con la perfecta igualdad o distribución equitativa (todos tienen los mismos ingresos); y 1 corresponde con la perfecta desigualdad (una persona tiene todos los ingresos y todos los demás ninguno).

  13. Verosimilitud: Se refiere a lo semejante o similar a la verdad, o a lo que tiene apariencia de verdadero. Es una función de los parámetros de un modelo estadístico que permite realizar inferencias acerca de su valor a partir de un conjunto de observaciones.

  14. Probabilidad: Es un número que se le asigna a un suceso como una medida de su incertidumbre. Se refiere a la mayor o menor posibilidad de que ocurra un suceso. Su noción viene de la necesidad de medir la certeza o duda de que un suceso dado ocurra o no.

  15. Distribución de probabilidad: Una distribución de probabilidad es aquella que permite establecer toda la gama de resultados probables de ocurrir en un experimento determinado. Es decir, describe la probabilidad de que un evento se realice en el futuro.

  1. Binomial: La distribución binomial o binómica, es una distribución de probabilidad discreta que cuenta el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí con una probabilidad fija p de ocurrencia de éxito entre los ensayos.

  2. Uniforme discreto:

  3. Poisson: La distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad de que ocurra un determinado número de eventos durante cierto período de tiempo.

  4. Hipergeométrica: Es una distribución discreta que modela el número de eventos en una muestra de tamaño fijo cuando usted conoce el número total de elementos en la población de la cual proviene la muestra. Las muestras no tienen reemplazo, por lo que cada elemento de la muestra es diferente.

  5. Uniforme continua: La distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que para cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables.

  6. Normal: Es aquella distribución de la probabilidad cuya gráfica adquiere forma de campana simétrica (de Gauss). Sirve para evaluar variables aleatorias que tendrán un comportamiento normal o aproximadamente normal.

  7. Exponencial: La distribución exponencial es una distribución continua que se utiliza para modelar tiempos de espera para la ocurrencia de un cierto evento. Esta distribución al igual que la distribución geométrica tiene la propiedad de pérdida de memoria.

  8. Beta: La distribución beta representa una familia de distribuciones de probabilidad continuas con soporte en el intervalo (0,1). La densidad beta es caracterizada por dos parámetros positivos, indicados generalmente por α y β, que son parámetros de localización y de escala.

  1. Tabla de contingencia: consiste en crear al menos dos filas y dos columnas para representar datos categóricos en términos de conteos de frecuencia. Es una tabla de doble entrada.

  2. Tabla cruzada: La tabulación o tabla cruzada es un desglose completo, y un modelo estadístico que se muestra en forma de banners o tablas, compuesto de filas y columnas. Lo que hacen estas tablas es permitirte analizar y medir la interacción entre dos variables.

  3. Distribución marginal: la distribución marginal es la distribución de probabilidad de un subconjunto de variables aleatorias de un conjunto de variables aleatorias. Es la distribución de frecuencias de una variable independientemente de cómo se comporta la otra variable de una distribución bidimensional.

  4. Distribución conjunta: En probabilidad, dados dos eventos aleatorios X y Y, la distribución conjunta de X e Y es la distribución de probabilidad de la intersección de eventos de X e Y, esto es, de los eventos X e Y ocurriendo de forma simultánea.

  5. Sumas de cuadrado: Representa una medida de variación o desviación con respecto a la media. Se calcula como una suma de los cuadrados de las diferencias con respecto a la media. El cálculo de la suma total de los cuadrados considera tanto la suma de los cuadrados de los factores como la de aleatoriedad o error.

  6. Estimación mínimo-cuadrática: La aproximación mínimo-cuadrática consiste en minimizar el error cuadrático, tiene solución general cuando se trata de un problema de aproximación lineal (lineal en sus coeficientes ) cualesquiera que sean las funciones base. Por lineal se entiende que la aproximación buscada se expresa como una combinación lineal de dichas funciones base.

  7. Error cuadrático medio: Mide la cantidad de error que hay entre dos conjuntos de datos. En otras palabras, compara un valor predicho y un valor observado o conocido.

  8. Covarianza: Es una medida de la asociación lineal entre dos variables. La covarianza es un valor que indica el grado de variación conjunta de dos variables aleatorias respecto a sus medias.

  9. Análisis de covarianza: Es un procedimiento estadístico que permite eliminar la heterogeneidad causada en la variable de interés (variable dependiente) por la influencia de una o más variables cuantitativas (covariables).

  10. Regresión: la regresión o ajuste lineales es un modelo matemático usado para aproximar la relación de dependencia entre una variable dependiente, variables independientes con un término aleatorio. El análisis de regresión es un método estadístico que permite examinar la relación entre dos o más variables e identificar cuáles son las que tienen mayor impacto en un tema de interés.

    1. Correlación: La correlación indica la fuerza y la dirección de una relación lineal y proporcionalidad entre dos variables estadísticas.
  1. Pearson: El coeficiente de correlación de Pearson es una medida de dependencia lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.

  2. Spearman: Este coeficiente es una medida de asociación lineal que utiliza los rangos, números de orden, de cada grupo de sujetos y compara dichos rangos.

  1. Modelo lineal: Se refiere a la estructura de la relación que representa a Xt como una función lineal de los valores anteriores de la misma serie de tiempo.

    1. Modelo no lineal: El interés de un modelo no lineal es que rompe con una limitación del modelo lineal, que es que el efecto de un cambio unitario en una variable explicativa Xt sobre la variable dependiente, es constante
  2. Factor: Una variable independiente. En la mayoría de las investigaciones se trata con más de una variable independiente y con los cambios que ocurren en la variable independiente, cuando varia una o más de las variables independientes. Son las variables que se investigan en el experimento para observar cómo afectan o influyen en la variable de respuesta.

    1. Variable respuesta: Las variables de interés en un experimento (las que se miden u observan) se denominan variables de respuesta o dependientes. Otras variables del experimento que afectan la respuesta y que el investigador puede establecer o medir se denominan variables predictoras, explicativas o independientes.
  3. Minería de datos: La minería de datos es el proceso de hallar anomalías, patrones y correlaciones en grandes conjuntos de datos para predecir resultados

  4. Ciencia de datos: Concepto para unificar estadísticas, análisis de datos, aprendizaje automático, y sus métodos relacionados, a efectos de comprender y analizar los fenómenos reales", empleando técnicas y teorías extraídas de muchos campos. Es un campo interdisciplinario que involucra métodos científicos, procesos y sistemas para extraer conocimiento o un mejor entendimiento de datos en sus diferentes formas, ya sea estructurados o no estructurados.

  5. Machine learning: El Machine Learning es una disciplina del campo de la Inteligencia Artificial que, a través de algoritmos, dota a los ordenadores de la capacidad de identificar patrones en datos masivos para hacer predicciones.

  6. Big data: Se entiende por Big Data a enormes conjuntos de datos que solo pueden entenderse mediante su procesamiento a través de aplicaciones informáticas.

  7. Efecto: En estadística, el tamaño del efecto es una medida de la fuerza de un fenómeno. El tamaño del efecto calculado a partir de datos es una estadística descriptiva que transmite la magnitud estimada.

  8. Contraste: Dentro de la inferencia estadística, un contraste de hipótesis (también denominada prueba de hipótesis o prueba de significación) es un procedimiento para juzgar si una propiedad que se supone en una población estadística es compatible con lo observado en una muestra de dicha población.

  9. Interacción de factores: Cuando el efecto de un factor depende del nivel del otro factor. Acción que se ejerce recíprocamente entre dos o más objetos. Mientras mayor sea la diferencia en la pendiente entre las líneas, mayor será el grado de interacción.

  10. Dato faltante: Los datos faltantes se definen como valores no disponibles que serían útiles o significativos para el análisis de los resultados.

  11. Dato atípico: un valor atípico (en inglés outlier) es una observación que es numéricamente distante del resto de los datos. Las estadísticas derivadas de los conjuntos de datos que incluyen valores atípicos serán frecuentemente engañosas.

  12. Hipótesis nula: es una suposición que se utiliza para negar o afirmar un suceso en relación con algún o algunos parámetros de una población o muestra. La hipótesis nula (H0) se refiere a la afirmación contraria a la que ha llegado el investigador. Es la hipótesis que el investigador pretender rechazar.

  13. Hipótesis alterna: indica que un parámetro de población es más pequeño, más grande o diferente del valor hipotético de la hipótesis nula. La hipótesis alternativa es lo que usted podría pensar que es cierto o espera probar que es cierto.

  14. Significación estadística: Un resultado o efecto es estadísticamente significativo cuando es improbable que haya sido debido al azar. Es la probabilidad de rechazar la hipótesis nula cuando es verdadera

  15. Estadístico de prueba: Es una variable aleatoria que se calcula a partir de datos de muestra y se utiliza en una prueba de hipótesis. Puede utilizar los estadísticos de prueba para determinar si puede rechazar la hipótesis nula. El estadístico de prueba compara sus datos con lo que se espera bajo la hipótesis nula.

  16. P valor: La probabilidad de que un valor estadístico calculado sea posible dada una hipótesis nula cierta. es el nivel (de significancia) más bajo en el que el valor observado de la estadística de prueba es significativo. El valor P es el nivel de significancia más pequeño que conduce al rechazo de la hipótesis nula

  17. Diagrama de densidad: describe la probabilidad relativa según la variable aleatoria tomará determinado valor. Un gráfico de densidad visualiza la distribución de datos en un intervalo o período de tiempo continuo. Este gráfico es una variación de un Histograma que usa el suavizado de cerner para trazar valores,

  18. Dependencia espacial: La dependencia espacial significa la ausencia de independencia que con frecuencia está presente entre observaciones en conjuntos de datos. Expresada según la primera ley de la geografía de Tobler (1970), “todo está relacionado con todo lo demás, pero las cosas cercanas están más relacionadas que las cosas distantes”.

  19. Dependencia temporal: La dependencia temporal es una característica de muchos datos de serie temporal que indica que el pasado afecta al futuro. Dicho en otras palabras, el valor de una variable recogida este año dependerá en gran medida del valor del dato de dicha variable el año pasado

  20. Técnica de muestreo: son un conjunto de técnicas estadísticas que estudian la forma de seleccionar una muestra representativa de la población, es decir, que represente lo más fielmente posible a la población a la que se pretende extrapolar o inferir los resultados de la investigación, asumiendo un error

  1. Aleatorio simple: El muestreo aleatorio simple es un procedimiento de muestreo probabilístico que da a cada elemento de la población objetivo y a cada posible muestra de un tamaño determinado, la misma probabilidad de ser seleccionado.

  2. Sistemático: El muestreo sistemático es un tipo de muestreo probabilístico donde se hace una selección aleatoria del primer elemento para la muestra, y luego se seleccionan los elementos posteriores utilizando intervalos fijos o sistemáticos hasta alcanzar el tamaño de la muestra deseado.

  3. Estratificado: El muestreo estratificado es un procedimiento de muestreo en el que el objetivo de la población se separa en segmentos exclusivos, homogéneos (estratos), y luego una muestra aleatoria simple se selecciona de cada segmento (estrato).

  1. Muestreo espacial: Es una parte del proceso de la digitalización de una imagen. Consiste en escoger muestras representativas de un modelo (por ejemplo una fotografía para un posterior procesado). Al muestrear, dependiendo de la dimensión del píxel escogido, obtendremos un muestreo con más o menos resolución espacial.

  2. Efecto borde Características ecológicas asociadas con la unión de dos tipos de hábitat o ecosistemas distintos de modo que afecta la estructura de la población y los rasgos biológicos de las comunidades animales o vegetales.

  3. Efecto de competición: Aporta una metodología investigativa, perseverancia en la búsqueda de resultados más precisos, necesidad de fundamentar las aseveraciones, razonamiento crítico basado en evidencias objetivas y un gran poder de síntesis y abstracción, lo que contribuye a potenciar el desarrollo de las demás. interacción biológica entre seres vivos en la cual la aptitud o adecuación biológica de uno es reducida a consecuencia de la presencia del otro

  4. Efecto de solapamiento: es el efecto que causa que señales continuas distintas se tornen indistinguibles cuando se muestrean digitalmente.

  5. Diseño experimental: El diseño experimental es una técnica estadística que permite identificar y cuantificar las causas de un efecto dentro de un estudio experimental. En un diseño experimental se manipulan deliberadamente una o más variables, vinculadas a las causas, para medir el efecto que tienen en otra variable de interés.

  6. Diseño cuasiexperimental: La investigación cuasiexperimental sería aquella en la que existe una exposición, una respuesta y una hipótesis para contrastar, pero no hay aleatorización de los sujetos a los grupos de tratamiento y control, o bien no existe grupo control propiamente dicho.

  7. Estudio observacional: Un estudio observacional es un tipo de estudio concreto que se define por tener un carácter estadístico o demográfico. Se caracterizan porque, en ellos, la labor del investigador se limita a la medición de las variables que se tienen en cuenta en el estudio.

  8. Control: Se denomina control estadístico de un proceso a la aplicación de técnicas y métodos estadísticos a la medición y análisis de los datos característicos de un proceso. Los datos y sus resultados son presentados en diferentes tipos de gráficos.

  1. Absoluto: El control absoluto implica que se controla todos los factores que afectan el proceso. El control absoluto no es común, ya que, todo proceso, por lo general, tiene una parte que no se puede controlar.

  2. Positivo: Los controles positivos se utilizan a menudo para evaluar la validez de prueba. Por ejemplo, para evaluar la capacidad de una prueba nueva para detectar una enfermedad (su sensibilidad), lo podemos comparar con una prueba diferente, ya conocida, para trabajar.

  3. Negativo: Donde hay sólo dos resultados posibles, por ejemplo positivos o negativos, si tanto el grupo de tratamiento y como el control negativo producen un resultado negativo, se puede inferir que el tratamiento no tuvo ningún efecto.

  1. Unidad experimental: Es la muestra de unidades que es necesario producir en una condición para obtener una medición o dato representativo. Unidad a la cual se le aplica un solo tratamiento (que puede ser una combinación de muchos factores) en una reproducción del experimento.

  2. Unidad de observación: Corresponde a la entidad mayor, primaria o representativa de lo que va a ser objeto específico de estudio en una medición y se refiere al qué o quién es objeto de interés en una investigación.