Base de datos Recursos Humanos
blimpia<-read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/Base de datos FORM/Act 2.4 Equipo/bajas_limpia.csv")
climpia<-read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/Base de datos FORM/Act 2.4 Equipo/rlimpia.csv")
bajas_bd<-read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/BD_Form_Limpias/bajas_final.csv")
colab_bd<-read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/BD_Form_Limpias/colab_final.csv")
#file.choose()
bajas_bd<-read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/BD_Form_Limpias/bajas_final.csv")
colab_bd<-read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/BD_Form_Limpias/colab_final.csv")
Base de datos Delivery Plan
dp <- read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/Base de datos FORM/Act 2.4 Equipo/DELIVERY PLAN bdf_Prueba.csv")
Base de datos Delivery Performance
bd_delivery_perf <- read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/Base de datos FORM/Act 2.4 Equipo/FORM - Delivery Performance C.csv")
Base de datos Producción
data <- read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/Base de datos FORM/Act 2.4 Equipo/Producion Completa.csv")
Base de datos Merma
bd_merma <- read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/Base de datos FORM/FORM - Merma1.csv")
Base de datos Scrap
bd_scrap <- read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/Base de datos FORM/FORM - Scrap.csv")
Bases de datos externa: USA
bd_externa <- read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/Base de datos FORM/Act 2.4 Equipo/us_motor_production_and_domestic_sales.csv")
base <-read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/Base de datos FORM/Act 2.4 Equipo/us_motor_production_and_domestic_sales1.csv")
Bases de datos externa: México
bd_externaMX <- read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/industria_automotriz_mx.csv")
library(foreign)
library(dplyr) # data manipulation
library(forcats) # to work with categorical variables
library(ggplot2) # data visualization
library(janitor) # data exploration and cleaning
library(Hmisc) # several useful functions for data analysis
library(naniar)
library(dlookr)
library(pollster)
library(descr)
library(data.table)
library(epiDisplay)
library(tidyr)
library(tidyverse)
library(psych) # functions for multivariate analysis
library(corrplot) # correlation plots
library(jtools) # presentation of regression analysis
library(lmtest) # diagnostic checks - linear regression analysis
library(car) # diagnostic checks - linear regression analysis
library(olsrr) # diagnostic checks - linear regression analysis
library(kableExtra) # HTML table attributes
library(tseries) # time series analysis and computational finance
library(forecast) # provides methods and tools for displaying and analyzing univariate time series forecast
library(astsa) # applied statistical time series analysis
library(plyr)
En la base de datos se trabajó previamente en excel, homogenizando las variables y después se trabajó en R distintas técnicas logrando eliminar las variables que no se consideren necesarias.
# Técnica. Remover valores irrelevantes
climpia2<-climpia
climpia2<-subset(climpia2,select=-c(Primer.mes,X4to.mes,Empleado,DEPARTAMENTO))
summary(climpia2)
## ANO.DE.NACIMIENTO GENERO FECHA.DE.ALTA PUESTO
## Min. :1955 Length:104 Min. :2010 Length:104
## 1st Qu.:1978 Class :character 1st Qu.:2021 Class :character
## Median :1989 Mode :character Median :2022 Mode :character
## Mean :1987 Mean :2021
## 3rd Qu.:1996 3rd Qu.:2022
## Max. :2003 Max. :2022
## SALARIO.DIARIO.IMSS LUGAR.DE.NACIMIENTO MUNICIPIO ESTADO
## Min. :144.4 Length:104 Length:104 Length:104
## 1st Qu.:176.7 Class :character Class :character Class :character
## Median :180.7 Mode :character Mode :character Mode :character
## Mean :179.3
## 3rd Qu.:180.7
## Max. :337.1
## ESTADO.CIVIL
## Length:104
## Class :character
## Mode :character
##
##
##
# ¿Cuántos NA tengo por variables? COLAB
sapply(climpia2,function(x) sum(is.na(x)))
## ANO.DE.NACIMIENTO GENERO FECHA.DE.ALTA PUESTO
## 0 0 0 0
## SALARIO.DIARIO.IMSS LUGAR.DE.NACIMIENTO MUNICIPIO ESTADO
## 0 0 0 0
## ESTADO.CIVIL
## 0
# ¿Cuántos NA tengo por variables? BAJAS
sapply(blimpia,function(x) sum(is.na(x)))
## NOMBRE.COMPLETO EDAD GENERO FECHA.DE.ALTA
## 0 0 0 0
## MOTIVO.DE.BAJA DURACION PUESTO SALARIO.DIARIO.IMSS
## 0 0 0 0
## ESTADO ESTADO.CIVIL
## 0 0
# No hay más valores faltantes.
# Técnica. Convertir tipos de datos
# Cambiar nombres de columnas.
# COLAB
str(climpia2)
## 'data.frame': 104 obs. of 9 variables:
## $ ANO.DE.NACIMIENTO : int 1990 1984 1984 1985 1984 1962 1966 1976 1963 1979 ...
## $ GENERO : chr "FEMENINO" "MASCULINO" "FEMENINO" "MASCULINO" ...
## $ FECHA.DE.ALTA : int 2013 2018 2015 2016 2020 2020 2022 2022 2022 2022 ...
## $ PUESTO : chr "SUPERVISORA" "MANTENIMIENTO" "COSTURERA" "AYUDANTE GENERAL" ...
## $ SALARIO.DIARIO.IMSS: num 337 280 260 241 241 ...
## $ LUGAR.DE.NACIMIENTO: chr "" "" "" "" ...
## $ MUNICIPIO : chr "APODACA" "APODACA" "APODACA" "APODACA" ...
## $ ESTADO : chr "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" ...
## $ ESTADO.CIVIL : chr "Casado" "Soltero" "Casado" "Casado" ...
names (climpia2) = c("edad", "genero", "alta", "puesto", "salario_diario", "lugar.nacim.","mpio","estado","civil")
names (climpia2)
## [1] "edad" "genero" "alta" "puesto"
## [5] "salario_diario" "lugar.nacim." "mpio" "estado"
## [9] "civil"
str(climpia2)
## 'data.frame': 104 obs. of 9 variables:
## $ edad : int 1990 1984 1984 1985 1984 1962 1966 1976 1963 1979 ...
## $ genero : chr "FEMENINO" "MASCULINO" "FEMENINO" "MASCULINO" ...
## $ alta : int 2013 2018 2015 2016 2020 2020 2022 2022 2022 2022 ...
## $ puesto : chr "SUPERVISORA" "MANTENIMIENTO" "COSTURERA" "AYUDANTE GENERAL" ...
## $ salario_diario: num 337 280 260 241 241 ...
## $ lugar.nacim. : chr "" "" "" "" ...
## $ mpio : chr "APODACA" "APODACA" "APODACA" "APODACA" ...
## $ estado : chr "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" ...
## $ civil : chr "Casado" "Soltero" "Casado" "Casado" ...
# BAJAS
str(blimpia)
## 'data.frame': 233 obs. of 10 variables:
## $ NOMBRE.COMPLETO : chr "MARIO VALDEZ ORTIZ" "ISABEL BARRIOS MENDEZ" "MARIA ELIZABETH GOMEZ HERNANDEZ" "ALONDRA ABIGAIL ESCARCIA GOMEZ" ...
## $ EDAD : int 32 36 23 21 29 46 29 31 50 19 ...
## $ GENERO : chr "MASCULINO" "FEMENINO" "FEMENINO" "FEMENINO" ...
## $ FECHA.DE.ALTA : chr "09/03/20" "09/11/21" "10/11/21" "10/11/21" ...
## $ MOTIVO.DE.BAJA : chr "RENUNCIA VOLUNTARIA" "RENUNCIA VOLUNTARIA" "RENUNCIA VOLUNTARIA" "RENUNCIA VOLUNTARIA" ...
## $ DURACION : num 628 60 59 59 51 37 37 31 18 224 ...
## $ PUESTO : chr "DISENO" "AYUDANTE GENERAL" "AYUDANTE GENERAL" "AYUDANTE GENERAL" ...
## $ SALARIO.DIARIO.IMSS: num 500 152 152 152 152 ...
## $ ESTADO : chr "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" ...
## $ ESTADO.CIVIL : chr "Soltero" "Union libre" "Matrimonio" "Soltero" ...
names (blimpia) = c("nombre", "edad", "genero", "alta", "motivo_baja", "duracion", "puesto","salario_diario","estado","e.civil.")
names (blimpia)
## [1] "nombre" "edad" "genero" "alta"
## [5] "motivo_baja" "duracion" "puesto" "salario_diario"
## [9] "estado" "e.civil."
str(blimpia)
## 'data.frame': 233 obs. of 10 variables:
## $ nombre : chr "MARIO VALDEZ ORTIZ" "ISABEL BARRIOS MENDEZ" "MARIA ELIZABETH GOMEZ HERNANDEZ" "ALONDRA ABIGAIL ESCARCIA GOMEZ" ...
## $ edad : int 32 36 23 21 29 46 29 31 50 19 ...
## $ genero : chr "MASCULINO" "FEMENINO" "FEMENINO" "FEMENINO" ...
## $ alta : chr "09/03/20" "09/11/21" "10/11/21" "10/11/21" ...
## $ motivo_baja : chr "RENUNCIA VOLUNTARIA" "RENUNCIA VOLUNTARIA" "RENUNCIA VOLUNTARIA" "RENUNCIA VOLUNTARIA" ...
## $ duracion : num 628 60 59 59 51 37 37 31 18 224 ...
## $ puesto : chr "DISENO" "AYUDANTE GENERAL" "AYUDANTE GENERAL" "AYUDANTE GENERAL" ...
## $ salario_diario: num 500 152 152 152 152 ...
## $ estado : chr "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" ...
## $ e.civil. : chr "Soltero" "Union libre" "Matrimonio" "Soltero" ...
# Exportar bases de datos
colab_final<-climpia2
write.csv(colab_final, file ="colab_final.csv", row.names = FALSE)
bajas_final<-blimpia
write.csv(bajas_final, file ="bajas_final.csv", row.names = FALSE)
colab_bd$genero[colab_bd$genero == "FEMENINO"] <- "F"
colab_bd$genero[colab_bd$genero == "MASCULINO"] <- "M"
str(colab_bd)
## 'data.frame': 104 obs. of 9 variables:
## $ edad : int 32 38 38 37 38 60 56 46 59 43 ...
## $ genero : chr "F" "M" "F" "M" ...
## $ alta : int 2013 2018 2015 2016 2020 2020 2022 2022 2022 2022 ...
## $ puesto : chr "SUPERVISORA" "MANTENIMIENTO" "COSTURERA" "AYUDANTE GENERAL" ...
## $ salario_diario: num 337 280 260 241 241 ...
## $ lugar.nacim. : chr "" "" "" "" ...
## $ mpio : chr "APODACA" "APODACA" "APODACA" "APODACA" ...
## $ estado : chr "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" ...
## $ civil : chr "Casado" "Soltero" "Casado" "Casado" ...
bajas_bd$genero[bajas_bd$genero == "FEMENINO"] <- "F"
bajas_bd$genero[bajas_bd$genero == "MASCULINO"] <- "M"
str(bajas_bd)
## 'data.frame': 233 obs. of 10 variables:
## $ nombre : chr "MARIO VALDEZ ORTIZ" "ISABEL BARRIOS MENDEZ" "MARIA ELIZABETH GOMEZ HERNANDEZ" "ALONDRA ABIGAIL ESCARCIA GOMEZ" ...
## $ edad : int 32 36 23 21 29 46 29 31 50 19 ...
## $ genero : chr "M" "F" "F" "F" ...
## $ alta : chr "09/03/20" "09/11/21" "10/11/21" "10/11/21" ...
## $ motivo_baja : chr "RENUNCIA VOLUNTARIA" "RENUNCIA VOLUNTARIA" "RENUNCIA VOLUNTARIA" "RENUNCIA VOLUNTARIA" ...
## $ duracion : num 628 60 59 59 51 37 37 31 18 224 ...
## $ puesto : chr "DISENO" "AYUDANTE GENERAL" "AYUDANTE GENERAL" "AYUDANTE GENERAL" ...
## $ salario_diario: num 500 152 152 152 152 ...
## $ estado : chr "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" ...
## $ e.civil. : chr "Soltero" "Union libre" "Matrimonio" "Soltero" ...
Dentro de la base de datos de Colaboradores se cuenta con 9 variables y 104 registros y para la base de datos de Bajas se tiene 10 variables con 233 registros.
| Variable | Tipo |
|---|---|
Año Nacimiento
|
Cuantitativa (discreta) |
Genero
|
Cualitativa (nominal) |
FechaAlta
|
Cuantitativa (discreta) |
PrimerMes
|
Cuantitativa (discreta) |
4toMes
|
Cuantitativa (discreta) |
Puesto
|
Cualitativa (nominal) |
Departamento
|
Cualitativa (nominal) |
SalarioDiario
|
Cuantitativa (continuo) |
LugarNacimiento
|
Cualitativa (nominal) |
Municipio
|
Cualitativa (nominal) |
Estado
|
Cualitativa (nominal) |
EstadoCivil
|
Cualitativa (nominal) |
Empleado
|
Cualitativa (nominal) |
| Variable | Medicion |
|---|---|
Año Nacimiento
|
Año |
Genero
|
No aplica |
FechaAlta
|
Año |
PrimerMes
|
Año |
4toMes
|
Año |
Puesto
|
No aplica |
Departamento
|
No aplica |
SalarioDiario
|
Pesos mexicanos |
LugarNacimiento
|
No aplica |
Municipio
|
No aplica |
Estado
|
No aplica |
EstadoCivil
|
No aplica |
Empleado
|
No aplica |
| Variable | Tipo |
|---|---|
Nombre Completo
|
Cualitativa (nominal) |
Edad
|
Cuantitativa (discreta) |
Genero
|
Cualitativa (nominal) |
FechaAlta
|
Cuantitativa (discreta) |
Motivo de Baja
|
Cuantitativa (discreta) |
Duración
|
Cuantitativa (discreta) |
Puesto
|
Cualitativa (nominal) |
SalarioDiario
|
Cuantitativa (continuo) |
Estado
|
Cualitativa (nominal) |
EstadoCivil
|
Cualitativa (nominal) |
| Variable | Medicion |
|---|---|
Nombre Completo
|
No aplica |
Edad
|
Años |
Genero
|
No aplica |
FechaAlta
|
Año |
Motivo de Baja
|
No aplica |
Duración
|
Días |
Puesto
|
No aplica |
SalarioDiario
|
Pesos Mexicanos |
Estado
|
No aplica |
EstadoCivil
|
No aplica |
La limpieza y modificación de filas y columnas respecto a las variables se realizó directamente en Excel por cuestiones de facilidad ya que la base estaba ordenada de una manera en donde R resultaría mucho más complicado.
# Técnica 4. Convertir tipos de datos
# Convertir de caracter a fecha
dp1 <- dp
dp1$Fecha<-as.Date(dp1$Fecha,format="%m/%d/%Y")
# Contabilizar si hay NA´S dentro de la base de datos actual para sustituirlos con la media, moda o mediana.
colSums(is.na(dp1))
## ID_Fecha Fecha CLIENTE Pedidos
## 0 0 0 0
# Vemos que en la base de datos no hay NA´S
## Exportamos la base de datos limpia
write.csv(dp1, file ="DELIVERY_FINAL_LIMPIA.csv", row.names = FALSE)
Dentro de la base de datos se cuenta con 4 variables y 228 registros.
Variable<-c("`ID Fecha`","`Fecha`","`Clientes`","`Pedidos`")
Tipo<-c("Cualitativa (ordinal)", "Cuantitativa (discreta)","Cualitativa (nominal)","Cuantitativa(discreta)")
table<-data.frame(Variable,Tipo)
knitr::kable(table)
| Variable | Tipo |
|---|---|
ID Fecha
|
Cualitativa (ordinal) |
Fecha
|
Cuantitativa (discreta) |
Clientes
|
Cualitativa (nominal) |
Pedidos
|
Cuantitativa(discreta) |
Variable<-c("`ID Fecha`","`Fecha`","`Clientes`","`Pedidos`")
Medicion<-c("Número", "Día, mes y año","Nombres","Núm. de ordenes")
table<-data.frame(Variable,Medicion)
knitr::kable(table)
| Variable | Medicion |
|---|---|
ID Fecha
|
Número |
Fecha
|
Día, mes y año |
Clientes
|
Nombres |
Pedidos
|
Núm. de ordenes |
Se realizó una limpia previa a la base de datos debido a que no se podía manejar en R, ya que el formato en que se encontraba no permitía que R pudiera entender cuales eran las variables de nuestra base de datos, por lo tanto las modificaciones y limpiezas que se realizaron fue la técnica de ‘Remover valores irrelevantes’ en este caso quitamos la conclusión porque no tendría valor en la base de datos, eliminamos target (horas) y tomamos el valor de cada inicio de mes para comparar principio de mes con mes, después en R se trabajo con la técnica de convertir tipos de datos en este caso de caracter a fecha y caracter a hora.
# Técnica 4. Convertir tipos de datos
# Convertir de caracter a fecha
bd_delivery_perf2 <- bd_delivery_perf
bd_delivery_perf2$fecha <- as.Date(bd_delivery_perf2$fecha, format ="%d/%m/%y")
library(tibble)
tibble(bd_delivery_perf2)
## # A tibble: 52 × 3
## fecha cliente dif
## <date> <chr> <dbl>
## 1 2021-07-31 "PRINTEL " 4.9
## 2 2021-07-31 "MAHLE" 15.7
## 3 2021-07-31 "MAGNA" 0
## 4 2021-07-31 "VARROC" 0
## 5 2021-08-31 "PRINTEL " 27.7
## 6 2021-08-31 "MAHLE" 67.3
## 7 2021-08-31 "MAGNA" 0
## 8 2021-08-31 "VARROC" 0
## 9 2021-09-30 "PRINTEL " 8.6
## 10 2021-09-30 "MAHLE" 56.8
## # … with 42 more rows
# Cambiar los nombres de las variables más cortas y específicas
names(bd_delivery_perf2) [3] = "delay_performance"
names(bd_delivery_perf2)
## [1] "fecha" "cliente" "delay_performance"
# Exportar
bd_delivery_perf3 <- bd_delivery_perf2
write.csv(bd_delivery_perf3, file ="deliveryperformance_FORM_limpia.csv", row.names = FALSE)
Dentro de la base de datos se cuenta con 3 variables y 52 registros.
Variable <-c("Fecha", "Cliente", "Diferencia")
Tipo <-c("Cuantitativa (continua)","Cualitativa (nominal)","Cuantitativa (continua)")
table<-data.frame(Variable, Tipo)
knitr::kable(table)
| Variable | Tipo |
|---|---|
| Fecha | Cuantitativa (continua) |
| Cliente | Cualitativa (nominal) |
| Diferencia | Cuantitativa (continua) |
Variable <-c("Fecha", "Cliente", "Diferencia")
Medición <-c("Dia, mes y año","Nombre","Minutos")
table<-data.frame(Variable, Medición)
knitr::kable(table)
| Variable | Medición |
|---|---|
| Fecha | Dia, mes y año |
| Cliente | Nombre |
| Diferencia | Minutos |
Se trabajo en la base de datos para primero eliminar columnas que no son relevantes para el analisis, después convertir de caracter a N/A para poder eliminar los espacios en blanco sin datos y por último se reemplazó los NA’s con el promedio para obtener un aproximando del tiempo de producion en los dias que esta en blanco o N/A.
#### Tecnica 1. Remover valores irrelevantes
data1 <- data
data1<-subset(data1,select=-c(No.,ID.FORM,PRODUCTO,X,HR..FIN,ESTACION.ARRANQUE,INICIO.SEP.UP,FIN.INICIO.DE.SEP.UP,INICIO.de.PROCESO,FIN.de.PROCESO,TIEMPO.CALIDAD,TIEMPO.MATERIALES,MERMAS.Maquinas.))
str(data1)
## 'data.frame': 5300 obs. of 5 variables:
## $ Fecha : chr "15/07/22" "15/07/22" "15/07/22" "15/07/22" ...
## $ CLIENTE : chr "STABILUS 1" "STABILUS 1" "STABILUS 1" "STABILUS 1" ...
## $ PIEZAS.PROG. : int 20 15 20 10 10 20 10 10 10 60 ...
## $ TMO..MIN. : chr "9:20" "9:35" "9:55" "10:05" ...
## $ Laminas.procesadas: chr "9:05" "10:05" "9:40" "11.2" ...
#### Tecnica 4. Convertir tipos de datos
data2 <- data1
data2$TMO..MIN. <- substr(data2$TMO..MIN., start = 1, stop = 2)
#tibble(data2)
data2$TMO..MIN. <- as.integer(data2$TMO..MIN.)
str(data2)
## 'data.frame': 5300 obs. of 5 variables:
## $ Fecha : chr "15/07/22" "15/07/22" "15/07/22" "15/07/22" ...
## $ CLIENTE : chr "STABILUS 1" "STABILUS 1" "STABILUS 1" "STABILUS 1" ...
## $ PIEZAS.PROG. : int 20 15 20 10 10 20 10 10 10 60 ...
## $ TMO..MIN. : int NA NA NA 10 10 10 10 10 11 10 ...
## $ Laminas.procesadas: chr "9:05" "10:05" "9:40" "11.2" ...
data3 <- data2
data3$Laminas.procesadas <- substr(data3$Laminas.procesadas, start = 1, stop = 2)
#tibble(data3)
data3$Laminas.procesadas <- as.integer(data3$Laminas.procesadas)
str(data3)
## 'data.frame': 5300 obs. of 5 variables:
## $ Fecha : chr "15/07/22" "15/07/22" "15/07/22" "15/07/22" ...
## $ CLIENTE : chr "STABILUS 1" "STABILUS 1" "STABILUS 1" "STABILUS 1" ...
## $ PIEZAS.PROG. : int 20 15 20 10 10 20 10 10 10 60 ...
## $ TMO..MIN. : int NA NA NA 10 10 10 10 10 11 10 ...
## $ Laminas.procesadas: int NA 10 NA 11 12 12 2 2 NA NA ...
data3$Fecha <- as.Date(data3$Fecha, format ="%d/%m/%y")
#### Tecnica 5. Valores faltantes
# Remplazar los valores por la media
data4 <- data3
data4$TMO..MIN.[is.na(data4$TMO..MIN.)]<-mean(data4$TMO..MIN., na.rm = TRUE)
summary (data4)
## Fecha CLIENTE PIEZAS.PROG. TMO..MIN.
## Min. :2022-01-08 Length:5300 Min. : 0.00 Min. : 0.0
## 1st Qu.:2022-07-22 Class :character 1st Qu.: 15.00 1st Qu.:10.3
## Median :2022-08-19 Mode :character Median : 20.00 Median :10.3
## Mean :2022-08-05 Mean : 28.18 Mean :10.3
## 3rd Qu.:2022-09-03 3rd Qu.: 25.00 3rd Qu.:10.3
## Max. :2022-12-09 Max. :800.00 Max. :70.0
## NA's :1496
## Laminas.procesadas
## Min. : 0.000
## 1st Qu.: 0.000
## Median : 0.000
## Mean : 4.765
## 3rd Qu.:10.000
## Max. :97.000
## NA's :2626
data5 <- data4
data5$PIEZAS.PROG.[is.na(data5$PIEZAS.PROG.)]<-mean(data5$PIEZAS.PROG., na.rm = TRUE)
summary (data5)
## Fecha CLIENTE PIEZAS.PROG. TMO..MIN.
## Min. :2022-01-08 Length:5300 Min. : 0.00 Min. : 0.0
## 1st Qu.:2022-07-22 Class :character 1st Qu.: 15.00 1st Qu.:10.3
## Median :2022-08-19 Mode :character Median : 25.00 Median :10.3
## Mean :2022-08-05 Mean : 28.18 Mean :10.3
## 3rd Qu.:2022-09-03 3rd Qu.: 28.18 3rd Qu.:10.3
## Max. :2022-12-09 Max. :800.00 Max. :70.0
##
## Laminas.procesadas
## Min. : 0.000
## 1st Qu.: 0.000
## Median : 0.000
## Mean : 4.765
## 3rd Qu.:10.000
## Max. :97.000
## NA's :2626
data6 <- data5
data6$Laminas.procesadas[is.na(data6$Laminas.procesadas)]<-mean(data6$Laminas.procesadas, na.rm = TRUE)
summary (data6)
## Fecha CLIENTE PIEZAS.PROG. TMO..MIN.
## Min. :2022-01-08 Length:5300 Min. : 0.00 Min. : 0.0
## 1st Qu.:2022-07-22 Class :character 1st Qu.: 15.00 1st Qu.:10.3
## Median :2022-08-19 Mode :character Median : 25.00 Median :10.3
## Mean :2022-08-05 Mean : 28.18 Mean :10.3
## 3rd Qu.:2022-09-03 3rd Qu.: 28.18 3rd Qu.:10.3
## Max. :2022-12-09 Max. :800.00 Max. :70.0
## Laminas.procesadas
## Min. : 0.000
## 1st Qu.: 0.000
## Median : 4.765
## Mean : 4.765
## 3rd Qu.: 4.765
## Max. :97.000
#### Exportar base de datos
write.csv(data6, file ="producción_FORM_limpia.csv", row.names = FALSE)
Dentro de la base de datos se cuenta con 18 variables y 5300 registros.
Variable <-c("Fecha", "Cliente", "Piezas prog.", "Tiempo min.", "Láminas procesadas")
Tipo <-c("Cualitativa (nominal)","Cualitativa (nominal)", "Cuantitativa (discreta)", "Cuantitativa (discreta)", "Cuantitativa (discreta)")
table<-data.frame(Variable, Tipo)
knitr::kable(table)
| Variable | Tipo |
|---|---|
| Fecha | Cualitativa (nominal) |
| Cliente | Cualitativa (nominal) |
| Piezas prog. | Cuantitativa (discreta) |
| Tiempo min. | Cuantitativa (discreta) |
| Láminas procesadas | Cuantitativa (discreta) |
Variable <-c("Fecha", "Cliente", "Piezas prog.", "Tiempo min.", "Láminas procesadas")
Medición <-c("Día, mes y año", "Nombre", "Cantidad de piezas", "Minutos", "Piezas finalizadas")
table<-data.frame(Variable, Medición)
knitr::kable(table)
| Variable | Medición |
|---|---|
| Fecha | Día, mes y año |
| Cliente | Nombre |
| Piezas prog. | Cantidad de piezas |
| Tiempo min. | Minutos |
| Láminas procesadas | Piezas finalizadas |
Se realizó una limpia previa a la base de datos debido a que no se podía manejar en R, ya que el formato en que se encontraba no permitía que R pudiera entender cuales eran las variables de nuestra base de datos y una vez teniendo la base de datos las técnicas que utilizamos en el programa fue Remover valores irrelevantes dejando las variables con mayor importancia como: Fecha, Cantidad y Ubicación de origen y la segunda técnica que utilizamos fue Convertir de caracter a fecha para tener la fecha en entero.
# Técnica. Remover valores irrelevantes
# Eliminar columnas
summary(bd_merma)
## Fecha Mes Kilos
## Length:60 Length:60 Min. : 790
## Class :character Class :character 1st Qu.: 3545
## Mode :character Mode :character Median : 4025
## Mean : 9271
## 3rd Qu.: 4702
## Max. :185426
bd_merma2 <- bd_merma
bd_merma2 <- subset (bd_merma2, select = -c (Mes))
# Eliminar renglones
bd_merma3 <- bd_merma2
bd_merma3 <- bd_merma3[bd_merma3$Fecha > 0, ]
# Técnica. Convertir tipos de datos
# Convertir de caracter a fecha
bd_merma4 <- bd_merma3
bd_merma4$Fecha <- as.Date(bd_merma4$Fecha, format ="%d/%m/%y")
# Exportar
bd_merma5 <- bd_merma4
write.csv(bd_merma5, file ="merma_FORM_limpia.csv", row.names = FALSE)
Dentro de la base de datos se cuenta con 3 variables y 60 registros.
Variable <-c("Fecha", "Merma")
Tipo <-c("Cualitativa (nominal)", "Cuantitativa (discreta)")
table<-data.frame(Variable, Tipo)
knitr::kable(table)
| Variable | Tipo |
|---|---|
| Fecha | Cualitativa (nominal) |
| Merma | Cuantitativa (discreta) |
Variable <-c("Fecha", "Merma")
Medición <-c("Día, mes y año", "Kilos")
table<-data.frame(Variable, Medición)
knitr::kable(table)
| Variable | Medición |
|---|---|
| Fecha | Día, mes y año |
| Merma | Kilos |
Dentro de la base de datos se cuenta con 9 variables y 250 registros.
Se realizó una limpia previa a la base de datos debido a que no se podía manejar en R, ya que el formato en que se encontraba no permitía que R pudiera entender cuales eran las variables de nuestra base de datos y una vez teniendo la base de datos las técnicas que utilizamos en el programa fue Remover valores irrelevantes dejando las variables con mayor importancia como: Fecha, Cantidad y Ubicación de origen y la segunda técnica que utilizamos fue Convertir de caracter a fecha para tener la fecha en entero.
#### Técnica. Remover valores irrelevantes
#### Eliminar columnas
summary(bd_scrap)
## Referencia Fecha Hora Producto
## Length:250 Length:250 Length:250 Length:250
## Class :character Class :character Class :character Class :character
## Mode :character Mode :character Mode :character Mode :character
##
##
##
## Cantidad Unidad.de.medida Ubicación.de.origen Ubicación.de.desecho
## Min. : 0.000 Length:250 Length:250 Length:250
## 1st Qu.: 1.000 Class :character Class :character Class :character
## Median : 2.000 Mode :character Mode :character Mode :character
## Mean : 6.696
## 3rd Qu.: 7.000
## Max. :96.000
## Estado
## Length:250
## Class :character
## Mode :character
##
##
##
bd_scrap2 <- bd_scrap
bd_scrap2 <- subset (bd_scrap2, select = -c (Referencia, Hora, Producto, Unidad.de.medida, Ubicación.de.desecho, Estado))
summary (bd_scrap2)
## Fecha Cantidad Ubicación.de.origen
## Length:250 Min. : 0.000 Length:250
## Class :character 1st Qu.: 1.000 Class :character
## Mode :character Median : 2.000 Mode :character
## Mean : 6.696
## 3rd Qu.: 7.000
## Max. :96.000
#### Técnica. Convertir tipos de datos
#### Convertir de caracter a fecha
bd_scrap3 <- bd_scrap2
bd_scrap3$Fecha <- as.Date(bd_scrap3$Fecha, format ="%d/%m/%y")
summary(bd_scrap3)
## Fecha Cantidad Ubicación.de.origen
## Min. :2020-08-01 Min. : 0.000 Length:250
## 1st Qu.:2020-08-11 1st Qu.: 1.000 Class :character
## Median :2020-08-19 Median : 2.000 Mode :character
## Mean :2020-08-17 Mean : 6.696
## 3rd Qu.:2020-08-25 3rd Qu.: 7.000
## Max. :2020-08-31 Max. :96.000
# Cambiar los nombres de las variables más cortas y específicas
names(bd_scrap3) [3] = "Ubi_origen"
names(bd_scrap3)
## [1] "Fecha" "Cantidad" "Ubi_origen"
#### Exportar base de datos
bd_scrap4 <- bd_scrap3
write.csv(bd_scrap4, file ="scrap_FORM_limpia.csv", row.names = FALSE)
Dentro de la base de datos se cuenta con 9 variables y 250 registros.
Variable <-c("Fecha", "Cantidad", "Ubicación Origen")
Tipo <-c("Cualitativa (nominal)", "Cuantitativa (discreta)", "Cualitativa (nominal)")
table<-data.frame(Variable, Tipo)
knitr::kable(table)
| Variable | Tipo |
|---|---|
| Fecha | Cualitativa (nominal) |
| Cantidad | Cuantitativa (discreta) |
| Ubicación Origen | Cualitativa (nominal) |
Variable <-c("Fecha", "Cantidad", "Ubicación Origen")
Medición <-c("Día, mes y año", "Kilos", "Nombre Area FORM")
table<-data.frame(Variable, Medición)
knitr::kable(table)
| Variable | Medición |
|---|---|
| Fecha | Día, mes y año |
| Cantidad | Kilos |
| Ubicación Origen | Nombre Area FORM |
bd_colabf <- table(colab_final$genero)
knitr::kable(bd_colabf)
| Var1 | Freq |
|---|---|
| FEMENINO | 59 |
| MASCULINO | 45 |
bd_colabf2 <- table(colab_final$civil)
knitr::kable(bd_colabf2)
| Var1 | Freq |
|---|---|
| Casado | 39 |
| Divorciado | 3 |
| Soltero | 42 |
| Union libre | 20 |
bd_colabf3 <- table(colab_final$mpio)
knitr::kable(bd_colabf3)
| Var1 | Freq |
|---|---|
| APODACA | 67 |
| CANADA BLANCA | 1 |
| GUADALUPE | 5 |
| JUAREZ | 9 |
| MONTERREY | 3 |
| PESQUERIA | 9 |
| RAMOS ARIZPE | 3 |
| SALTILLO | 5 |
| SAN NICOLAS DE LOS G | 2 |
bd_colabf4 <- table(colab_final$estado)
knitr::kable(bd_colabf4)
| Var1 | Freq |
|---|---|
| Coahuila | 9 |
| Nuevo Leon | 95 |
bd_colabf5 <- table(colab_final$puesto)
knitr::kable(bd_colabf5)
| Var1 | Freq |
|---|---|
| AYUDANTE DE MANTENIMIENTO | 1 |
| Ayudante general | 1 |
| AYUDANTE GENERAL | 61 |
| CHOFER | 3 |
| CHOFER GESTOR | 1 |
| COSTURERA | 10 |
| CUSTOMER SERVICE INF | 1 |
| ENFERMERA | 1 |
| GESTOR | 1 |
| GUARDIA DE SEGURIDAD | 1 |
| INSPECTOR DE CALIDAD | 2 |
| LIDER | 1 |
| LIMPIEZA | 1 |
| MANTENIMIENTO | 1 |
| MONTACARGUISTA | 1 |
| MOZO | 1 |
| OP. FLEXO-RANURADORA-REFILADORA | 1 |
| OPERADOR SIERRA | 1 |
| PINTOR | 1 |
| RECIBO | 1 |
| RESIDENTE | 4 |
| SOLDADOR | 5 |
| Supervisor de M√°quin | 1 |
| Supervisor de pegado | 1 |
| SUPERVISORA | 1 |
bd_bajasf <- table(bajas_final$motivo_baja)
knitr::kable(bd_bajasf)
| Var1 | Freq |
|---|---|
| ABANDONO | 1 |
| BAJA POR FALTAS | 139 |
| JUBILACION | 1 |
| RENUNCIA VOLUNTARIA | 84 |
| TERMINO DE CONTRATO | 8 |
bd_bajasf2 <- table(bajas_final$genero)
knitr::kable(bd_bajasf2)
| Var1 | Freq |
|---|---|
| FEMENINO | 137 |
| MASCULINO | 96 |
bd_bajasf3 <- table(bajas_final$puesto)
knitr::kable(bd_bajasf3)
| Var1 | Freq |
|---|---|
| ANALISTA DE NOMINAS /AUX DE R.H. | 1 |
| AUXILIAR DE EMBARQUES | 3 |
| AYUD.EMBARQUES | 1 |
| AYUDANTE DE EMBARQUES | 3 |
| AYUDANTE DE MTTO | 1 |
| AYUDANTE DE SOLDADOR | 1 |
| AYUDANTE GENERAL | 176 |
| AYUDANTE GENERAL DE EMBARQUES | 1 |
| CHOFER | 1 |
| CORTADOR | 1 |
| COSTURERA | 10 |
| COSTURERO | 1 |
| DISENO | 1 |
| ENCARGADA DE CALIDAD | 1 |
| FACTURACION | 1 |
| GUARDIA DE SEGURIDAD | 2 |
| INSPECTOR CALIDAD | 3 |
| INSPECTORA DE CALIDAD | 1 |
| LIMPIEZA | 1 |
| MARCADORA | 1 |
| MATERIALISTA | 2 |
| MONTACARGUISTA | 5 |
| PRACTICANTE DE MTTO | 1 |
| RESIDENTE | 2 |
| Residente Yanfeng | 1 |
| SERVICIO AL CLIENTE | 1 |
| SOLDADOR | 10 |
bd_bajasf4 <- table(bajas_final$e.civil)
knitr::kable(bd_bajasf4)
| Var1 | Freq |
|---|---|
| 1 | |
| Divorcio | 3 |
| Matrimonio | 63 |
| Soltero | 107 |
| Union libre | 59 |
cruzada1<-table(colab_final$salario_diario,colab_final$genero)
knitr::kable(cruzada1)
| FEMENINO | MASCULINO | |
|---|---|---|
| 144.45 | 3 | 0 |
| 151.61 | 7 | 4 |
| 151.67 | 1 | 2 |
| 152.86 | 1 | 0 |
| 175.79 | 0 | 1 |
| 176.72 | 7 | 14 |
| 180.68 | 33 | 22 |
| 181.68 | 1 | 0 |
| 184.68 | 1 | 0 |
| 185.68 | 1 | 0 |
| 208.65 | 1 | 0 |
| 240.71 | 1 | 0 |
| 240.75 | 0 | 1 |
| 260.01 | 1 | 0 |
| 279.61 | 0 | 1 |
| 337.05 | 1 | 0 |
cruzada1<-table(bajas_final$edad, bajas_final$salario_diario)
knitr::kable(cruzada1)
| 144.45 | 151.61 | 151.67 | 176.72 | 180.68 | 182.68 | 183.68 | 500 | |
|---|---|---|---|---|---|---|---|---|
| 18 | 0 | 0 | 0 | 0 | 2 | 0 | 0 | 0 |
| 19 | 0 | 4 | 0 | 1 | 7 | 1 | 0 | 0 |
| 20 | 0 | 2 | 0 | 0 | 12 | 0 | 0 | 0 |
| 21 | 0 | 3 | 0 | 1 | 11 | 0 | 0 | 0 |
| 22 | 0 | 1 | 0 | 1 | 8 | 0 | 0 | 0 |
| 23 | 0 | 2 | 0 | 0 | 10 | 0 | 0 | 0 |
| 24 | 0 | 1 | 0 | 1 | 10 | 0 | 0 | 0 |
| 25 | 0 | 1 | 0 | 1 | 8 | 0 | 0 | 0 |
| 26 | 0 | 0 | 0 | 0 | 11 | 0 | 0 | 0 |
| 27 | 1 | 0 | 0 | 2 | 8 | 0 | 0 | 0 |
| 28 | 0 | 1 | 0 | 1 | 4 | 0 | 0 | 0 |
| 29 | 0 | 2 | 0 | 0 | 6 | 0 | 0 | 0 |
| 30 | 0 | 1 | 0 | 1 | 9 | 0 | 0 | 0 |
| 31 | 0 | 1 | 0 | 1 | 5 | 0 | 0 | 0 |
| 32 | 0 | 1 | 0 | 0 | 8 | 0 | 0 | 1 |
| 33 | 0 | 0 | 1 | 0 | 4 | 0 | 0 | 0 |
| 34 | 0 | 1 | 0 | 0 | 2 | 0 | 0 | 0 |
| 35 | 0 | 1 | 0 | 0 | 4 | 0 | 0 | 0 |
| 36 | 0 | 1 | 0 | 0 | 7 | 0 | 0 | 0 |
| 37 | 0 | 0 | 0 | 1 | 5 | 0 | 0 | 0 |
| 38 | 0 | 0 | 0 | 0 | 5 | 0 | 0 | 0 |
| 39 | 0 | 0 | 0 | 0 | 3 | 0 | 0 | 0 |
| 40 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 |
| 41 | 0 | 0 | 0 | 0 | 7 | 0 | 0 | 0 |
| 42 | 0 | 0 | 0 | 0 | 3 | 0 | 0 | 0 |
| 43 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 0 |
| 44 | 0 | 0 | 0 | 0 | 4 | 0 | 0 | 0 |
| 45 | 0 | 1 | 0 | 1 | 1 | 0 | 0 | 0 |
| 46 | 0 | 1 | 0 | 0 | 2 | 0 | 0 | 0 |
| 47 | 0 | 0 | 0 | 0 | 3 | 0 | 1 | 0 |
| 48 | 0 | 0 | 0 | 1 | 3 | 0 | 0 | 0 |
| 49 | 0 | 0 | 1 | 0 | 3 | 0 | 0 | 0 |
| 50 | 0 | 2 | 0 | 1 | 0 | 0 | 0 | 0 |
| 51 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 |
| 52 | 0 | 0 | 0 | 0 | 2 | 0 | 0 | 0 |
| 54 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 |
| 56 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 |
| 57 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 |
| 61 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 |
cruzada1<-table(data6$Fecha,data6$PIEZAS.PROG.)
knitr::kable(cruzada1)
| 0 | 5 | 10 | 12 | 15 | 20 | 25 | 26 | 28.1845425867508 | 30 | 35 | 40 | 41 | 45 | 50 | 56 | 57 | 60 | 62 | 68 | 69 | 70 | 75 | 80 | 90 | 99 | 100 | 104 | 110 | 120 | 130 | 150 | 160 | 192 | 199 | 200 | 208 | 216 | 240 | 300 | 320 | 400 | 483 | 600 | 800 | |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| 2022-01-08 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 2 | 0 | 0 | 0 | 1 | 1 | 0 | 4 | 1 | 2 | 1 | 1 | 1 | 2 | 1 | 0 | 1 | 0 | 1 | 11 | 4 | 0 | 0 | 0 | 0 | 5 | 12 | 5 | 22 | 6 | 1 | 1 | 2 | 5 | 11 | 1 | 1 | 3 |
| 2022-02-08 | 1 | 0 | 22 | 0 | 15 | 18 | 15 | 0 | 37 | 2 | 0 | 6 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 2 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-03-08 | 0 | 0 | 18 | 0 | 20 | 9 | 18 | 0 | 28 | 1 | 2 | 6 | 0 | 0 | 3 | 0 | 0 | 3 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-04-08 | 0 | 1 | 7 | 0 | 14 | 11 | 15 | 0 | 20 | 1 | 3 | 3 | 0 | 2 | 3 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-05-08 | 4 | 0 | 18 | 0 | 9 | 11 | 9 | 0 | 25 | 4 | 0 | 1 | 0 | 1 | 2 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-05-09 | 0 | 0 | 27 | 0 | 13 | 17 | 24 | 0 | 26 | 2 | 3 | 3 | 0 | 0 | 4 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-06-08 | 0 | 0 | 7 | 0 | 6 | 4 | 13 | 0 | 22 | 0 | 2 | 4 | 0 | 2 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-06-09 | 0 | 0 | 18 | 0 | 19 | 13 | 18 | 0 | 32 | 0 | 6 | 5 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-09 | 0 | 0 | 7 | 0 | 8 | 13 | 12 | 0 | 21 | 1 | 1 | 1 | 0 | 0 | 5 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 3 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-15 | 0 | 0 | 8 | 0 | 1 | 11 | 13 | 0 | 15 | 1 | 1 | 1 | 0 | 0 | 4 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-16 | 0 | 0 | 13 | 0 | 4 | 8 | 6 | 0 | 14 | 1 | 1 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-18 | 0 | 0 | 9 | 0 | 9 | 4 | 13 | 0 | 17 | 1 | 1 | 4 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-19 | 0 | 0 | 6 | 0 | 6 | 10 | 15 | 0 | 17 | 2 | 1 | 5 | 0 | 0 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-20 | 0 | 0 | 22 | 0 | 5 | 12 | 10 | 0 | 16 | 6 | 2 | 1 | 0 | 0 | 3 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-21 | 0 | 0 | 9 | 0 | 8 | 13 | 16 | 0 | 29 | 2 | 1 | 0 | 0 | 0 | 4 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-22 | 0 | 0 | 17 | 0 | 1 | 9 | 15 | 0 | 29 | 0 | 0 | 4 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-23 | 0 | 0 | 8 | 0 | 3 | 7 | 7 | 0 | 17 | 2 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-25 | 0 | 0 | 26 | 0 | 15 | 13 | 19 | 0 | 21 | 4 | 2 | 1 | 0 | 0 | 2 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-26 | 0 | 0 | 11 | 0 | 12 | 18 | 19 | 0 | 25 | 1 | 0 | 5 | 0 | 0 | 6 | 0 | 0 | 4 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-27 | 0 | 0 | 12 | 0 | 11 | 11 | 17 | 0 | 26 | 0 | 3 | 1 | 0 | 0 | 7 | 0 | 0 | 4 | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-28 | 0 | 0 | 15 | 0 | 18 | 7 | 24 | 0 | 35 | 0 | 3 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-29 | 0 | 0 | 25 | 0 | 11 | 13 | 14 | 0 | 40 | 0 | 2 | 2 | 0 | 0 | 1 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-07-30 | 0 | 0 | 7 | 0 | 14 | 7 | 5 | 0 | 28 | 1 | 3 | 1 | 0 | 0 | 1 | 0 | 0 | 3 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-08 | 0 | 0 | 0 | 0 | 0 | 6 | 7 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-09 | 0 | 0 | 13 | 0 | 3 | 13 | 18 | 0 | 21 | 0 | 3 | 1 | 0 | 0 | 4 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 3 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-13 | 0 | 0 | 14 | 0 | 7 | 10 | 25 | 0 | 23 | 1 | 0 | 2 | 0 | 0 | 1 | 0 | 0 | 4 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-15 | 0 | 0 | 19 | 0 | 17 | 12 | 15 | 0 | 31 | 1 | 1 | 3 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-16 | 2 | 0 | 13 | 0 | 14 | 9 | 20 | 0 | 28 | 2 | 1 | 3 | 0 | 1 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-17 | 0 | 0 | 17 | 0 | 19 | 9 | 22 | 0 | 33 | 2 | 0 | 2 | 0 | 0 | 1 | 0 | 0 | 4 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-18 | 0 | 0 | 11 | 0 | 10 | 12 | 18 | 0 | 28 | 2 | 3 | 3 | 0 | 0 | 3 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-19 | 0 | 0 | 20 | 0 | 18 | 7 | 26 | 0 | 28 | 1 | 1 | 4 | 0 | 0 | 3 | 0 | 0 | 4 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-20 | 0 | 0 | 12 | 0 | 8 | 7 | 13 | 0 | 25 | 2 | 2 | 2 | 0 | 0 | 4 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-22 | 29 | 0 | 7 | 0 | 14 | 2 | 16 | 0 | 2 | 3 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-23 | 0 | 0 | 12 | 0 | 8 | 16 | 14 | 0 | 35 | 2 | 3 | 4 | 0 | 2 | 5 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-24 | 0 | 0 | 8 | 0 | 13 | 13 | 22 | 0 | 33 | 0 | 2 | 1 | 0 | 0 | 4 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-25 | 0 | 0 | 18 | 0 | 11 | 14 | 26 | 0 | 33 | 2 | 1 | 1 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-26 | 0 | 0 | 21 | 0 | 10 | 16 | 16 | 0 | 35 | 2 | 6 | 0 | 0 | 0 | 3 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-27 | 0 | 0 | 9 | 0 | 7 | 4 | 18 | 0 | 21 | 0 | 4 | 0 | 0 | 0 | 4 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-29 | 0 | 0 | 23 | 0 | 7 | 14 | 19 | 0 | 26 | 1 | 7 | 5 | 0 | 0 | 6 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-30 | 0 | 0 | 27 | 0 | 8 | 17 | 22 | 0 | 35 | 0 | 2 | 2 | 0 | 0 | 3 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-08-31 | 0 | 0 | 23 | 0 | 4 | 14 | 25 | 0 | 38 | 3 | 1 | 1 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-09-01 | 0 | 0 | 23 | 0 | 12 | 13 | 25 | 0 | 31 | 1 | 2 | 2 | 0 | 0 | 3 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-09-02 | 0 | 0 | 10 | 0 | 9 | 12 | 23 | 0 | 33 | 8 | 1 | 2 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-09-03 | 0 | 0 | 22 | 0 | 24 | 13 | 35 | 0 | 56 | 2 | 3 | 3 | 0 | 0 | 2 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-09-08 | 0 | 0 | 13 | 0 | 12 | 14 | 21 | 0 | 23 | 1 | 6 | 4 | 0 | 0 | 4 | 0 | 0 | 3 | 0 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-09-09 | 0 | 0 | 4 | 0 | 5 | 4 | 13 | 0 | 18 | 0 | 0 | 0 | 0 | 0 | 4 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-09-13 | 0 | 0 | 12 | 0 | 13 | 12 | 29 | 0 | 36 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-09-14 | 0 | 0 | 20 | 0 | 14 | 11 | 17 | 0 | 28 | 0 | 3 | 5 | 0 | 0 | 4 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-09-15 | 0 | 0 | 8 | 0 | 7 | 8 | 13 | 0 | 22 | 0 | 3 | 2 | 0 | 0 | 4 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-09-16 | 0 | 0 | 7 | 0 | 11 | 3 | 10 | 0 | 13 | 1 | 0 | 2 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-09-17 | 0 | 0 | 14 | 0 | 14 | 7 | 8 | 0 | 24 | 1 | 0 | 1 | 0 | 0 | 2 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-09-19 | 0 | 0 | 10 | 0 | 14 | 13 | 22 | 0 | 32 | 2 | 1 | 3 | 0 | 0 | 4 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-09-20 | 0 | 0 | 11 | 0 | 24 | 7 | 17 | 0 | 29 | 1 | 0 | 1 | 0 | 1 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-10-08 | 0 | 0 | 15 | 0 | 10 | 16 | 23 | 0 | 24 | 3 | 4 | 8 | 0 | 0 | 2 | 0 | 0 | 1 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-10-09 | 0 | 0 | 19 | 0 | 10 | 9 | 19 | 0 | 29 | 2 | 4 | 4 | 0 | 0 | 2 | 0 | 0 | 2 | 0 | 0 | 0 | 1 | 2 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-11-08 | 0 | 0 | 17 | 0 | 11 | 7 | 26 | 0 | 23 | 1 | 0 | 5 | 0 | 0 | 3 | 0 | 0 | 4 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-12-08 | 0 | 0 | 16 | 0 | 12 | 7 | 23 | 0 | 26 | 3 | 3 | 1 | 0 | 0 | 4 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2022-12-09 | 0 | 0 | 17 | 0 | 12 | 10 | 20 | 0 | 34 | 0 | 2 | 1 | 0 | 0 | 5 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
cruzada2<-table(data6$Laminas.procesadas,data6$TMO..MIN.)
knitr::kable(cruzada2)
| 0 | 2 | 4 | 9 | 10 | 10.3026178010471 | 11 | 12 | 15 | 20 | 25 | 30 | 35 | 40 | 45 | 50 | 60 | 65 | 70 | |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| 0 | 128 | 0 | 0 | 0 | 100 | 1166 | 124 | 109 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 1 | 1 | 0 | 0 | 0 | 0 | 5 | 3 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 2 | 0 | 0 | 0 | 0 | 4 | 7 | 1 | 3 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 3 | 1 | 0 | 0 | 0 | 1 | 8 | 5 | 5 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 4 | 1 | 0 | 0 | 0 | 0 | 2 | 2 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 4.76477187733732 | 60 | 1 | 1 | 0 | 250 | 1947 | 175 | 186 | 4 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 |
| 8 | 0 | 0 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 9 | 4 | 0 | 0 | 0 | 6 | 12 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 10 | 3 | 0 | 0 | 1 | 146 | 92 | 75 | 26 | 0 | 2 | 2 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 0 |
| 11 | 1 | 0 | 0 | 0 | 103 | 71 | 84 | 40 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 12 | 1 | 0 | 0 | 0 | 57 | 71 | 61 | 50 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 13 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 |
| 14 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 |
| 16 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 |
| 17 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 19 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 |
| 20 | 0 | 0 | 0 | 0 | 0 | 3 | 0 | 0 | 1 | 1 | 13 | 0 | 1 | 0 | 2 | 0 | 1 | 0 | 0 |
| 21 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 22 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 23 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 25 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 27 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 32 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 |
| 33 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 |
| 35 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 38 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 40 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | 1 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 |
| 41 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 44 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 49 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 2 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 50 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 |
| 51 | 0 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 3 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 53 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 55 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 65 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 69 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
| 79 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 |
| 80 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 |
| 97 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
proporciones <- c(59, 45) # creamos un vector con proporciones
etiquetas <- c("FEMENINO", "MASCULINO") # vector con etiquetas
pct <- round(proporciones/sum(proporciones)*100)
etiquetas <- paste(etiquetas,pct) # Añadimos porcentajes a etiquetas
etiquetas <- paste(etiquetas,"%",sep="") # Añadimos el símbolo de %
pie(proporciones,labels = etiquetas,
col=rainbow(length(etiquetas)),
main="Género")
df <- data.frame(Civil= c("Soltero","Casado", "Unión libre", "Divorciado"),
num= c(42, 39, 20, 3))
barplot(height = df$num, names = df$Civil,
col = rainbow(4))
hist(colab_bd$salario_diario, main = "Salario Diario", xlab = "Cantidad", ylab = "Frecuencia",col = "blue")
##### Bajas ###### Pie Chart sobre motivo de baja
proporciones <- c(139, 84, 8, 1, 1) # creamos un vector con proporciones
etiquetas <- c("BAJA POR FALTAS", "RENUNCIA VOLUNTARIA", "TERMINO DE CONTRATO","JUBILACIÓN", "ABANDONO") # vector con etiquetas
pct <- round(proporciones/sum(proporciones)*100)
etiquetas <- paste(etiquetas,pct) # Añadimos porcentajes a etiquetas
etiquetas <- paste(etiquetas,"%",sep="") # Añadimos el símbolo de %
pie(proporciones,labels = etiquetas,
col=rainbow(length(etiquetas)),
main="Género")
###### Bar plot “Bajas por estado civil”
df <- data.frame(Civil= c("Soltero","Matrimonio", "Unión libre", "Divorciado"),
num= c(107,63, 59, 3))
barplot(height = df$num, names = df$Civil,
col = rainbow(4), legend.text = rownames(df))
plot(x = data6$TMO..MIN., y = data6$Laminas.procesadas, main = "Relación entre Laminas y Tiempo", xlab = "Tiempo", ylab = "Laminas procesadas")
plot(x = bd_merma5$Fecha, y = bd_merma5$Kilos, main = "Relación entre Mes y Kilos", xlab = "Mes", ylab = "Kilos de merma")
bd_externa2 <- table(bd_externa$US_Min_Hour_Wage)
knitr::kable(bd_externa2)
| Var1 | Freq |
|---|---|
| 5.5 | 1 |
| 6.2 | 1 |
| 6.9 | 1 |
| 7.25 | 11 |
ggplot(bd_externa, aes(x=reorder(Year,Total_Production), y=Domestic_Sales)) +
geom_bar(stat="identity")+
coord_flip()
hist(bd_externaMX$unidades_exportacion, main = "Distribución de frecuencias Exportación", xlab = "Exportación", ylab = "Frecuencia",col = "red")
plot(x = bd_externa$Production_Commercial_Vehicles, y = bd_externa$Sales_Commercial_Vehicles, main = "Vehículos Comerciales", xlab = "Producción", ylab = "Ventas")
plot(x = bd_externaMX$unidades_exportacion, y = bd_externaMX$unidades_produccion, main = "Relación entre exportación y unidades de todo tipo vehículos", xlab = "Exportación", ylab = "Producción")
# install.packages("psych")
library(psych)
describe(colab_final) # Función que nos da datos descriptivos
## vars n mean sd median trimmed mad min max
## edad 1 104 1986.52 12.20 1989.00 1987.32 13.34 1955.00 2003.00
## genero* 2 104 1.43 0.50 1.00 1.42 0.00 1.00 2.00
## alta 3 104 2020.69 2.34 2022.00 2021.25 0.00 2010.00 2022.00
## puesto* 4 104 7.01 6.75 3.00 5.69 0.00 1.00 25.00
## salario_diario 5 104 179.35 25.17 180.68 176.88 0.00 144.45 337.05
## lugar.nacim.* 6 104 15.38 13.49 14.50 14.46 20.02 1.00 42.00
## mpio* 7 104 2.58 2.41 1.00 2.13 0.00 1.00 9.00
## estado* 8 104 1.91 0.28 2.00 2.00 0.00 1.00 2.00
## civil* 9 104 2.41 1.18 3.00 2.39 1.48 1.00 4.00
## range skew kurtosis se
## edad 48.0 -0.51 -0.80 1.20
## genero* 1.0 0.27 -1.95 0.05
## alta 12.0 -2.49 6.57 0.23
## puesto* 24.0 1.46 0.55 0.66
## salario_diario 192.6 3.31 16.26 2.47
## lugar.nacim.* 41.0 0.30 -1.38 1.32
## mpio* 8.0 1.21 0.05 0.24
## estado* 1.0 -2.90 6.47 0.03
## civil* 3.0 -0.13 -1.57 0.12
# Sacamos moda con otra función ya que en la función describe no nos la da
mode <- function (x) {
ux <- unique(x)
ux [which.max(tabulate(match(x,ux)))]
}
mode <- mode(colab_final$salario_diario)
mode
## [1] 180.68
Variables <-c("Salario diario" )
Media <-c("179.35" )
Mediana <-c("180.68" )
Moda <- c("180.68")
Desviacion_estandar <-c("25.17" )
tablecolab <- describe(data)
knitr::kable(tablecolab)
| vars | n | mean | sd | median | trimmed | mad | min | max | range | skew | kurtosis | se | |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Fecha* | 1 | 5300 | 29.284717 | 17.493629 | 29.0 | 29.264623 | 23.7216 | 1 | 58 | 57 | 0.0064672 | -1.2818588 | 0.2402935 |
| No. | 2 | 5274 | 48.189041 | 29.437293 | 46.0 | 47.121090 | 35.5824 | 1 | 121 | 120 | 0.2499196 | -0.9584016 | 0.4053478 |
| CLIENTE* | 3 | 5299 | 6.975090 | 2.617878 | 7.0 | 6.979014 | 1.4826 | 1 | 12 | 11 | 0.0736036 | 0.2211464 | 0.0359627 |
| ID.FORM* | 4 | 5299 | 143.393659 | 85.453129 | 152.0 | 142.013912 | 99.3342 | 1 | 311 | 310 | 0.0098375 | -0.9025308 | 1.1738997 |
| PRODUCTO* | 5 | 5300 | 218.204528 | 123.083001 | 218.0 | 221.840094 | 149.7426 | 1 | 408 | 407 | -0.1680240 | -1.2048808 | 1.6906750 |
| X* | 6 | 5300 | 124.773962 | 99.349535 | 92.0 | 117.475000 | 130.4688 | 1 | 339 | 338 | 0.4240316 | -0.9917658 | 1.3646708 |
| PIEZAS.PROG. | 7 | 3804 | 28.184543 | 42.610363 | 20.0 | 20.978975 | 7.4130 | 0 | 800 | 800 | 9.0626518 | 118.0020228 | 0.6908678 |
| TMO..MIN.* | 8 | 5300 | 118.286793 | 90.535906 | 131.0 | 114.214151 | 100.8168 | 1 | 274 | 273 | 0.0092239 | -1.1219211 | 1.2436063 |
| HR..FIN* | 9 | 5300 | 84.927925 | 14.275750 | 87.0 | 86.411557 | 14.8260 | 1 | 99 | 98 | -2.2309927 | 9.7820520 | 0.1960925 |
| ESTACION.ARRANQUE* | 10 | 5300 | 128.931509 | 151.437504 | 43.5 | 107.197170 | 63.0105 | 1 | 480 | 479 | 0.8514809 | -0.6492739 | 2.0801541 |
| Laminas.procesadas* | 11 | 5300 | 177.477170 | 247.368831 | 3.0 | 134.551179 | 2.9652 | 1 | 754 | 753 | 1.0927667 | -0.3197660 | 3.3978722 |
| INICIO.SEP.UP* | 12 | 5300 | 171.862830 | 241.797486 | 2.0 | 128.451887 | 1.4826 | 1 | 748 | 747 | 1.1205817 | -0.2259700 | 3.3213439 |
| FIN.INICIO.DE.SEP.UP* | 13 | 5300 | 279.906604 | 301.987843 | 206.0 | 245.659670 | 303.9330 | 1 | 886 | 885 | 0.6272972 | -1.0548002 | 4.1481220 |
| INICIO.de.PROCESO* | 14 | 5300 | 284.753585 | 303.733582 | 223.0 | 248.791745 | 329.1372 | 1 | 905 | 904 | 0.6060365 | -1.0362020 | 4.1721016 |
| FIN.de.PROCESO* | 15 | 5300 | 10.405283 | 14.371053 | 12.0 | 7.844104 | 0.0000 | 1 | 109 | 108 | 3.7375855 | 16.1045786 | 0.1974016 |
| TIEMPO.CALIDAD | 16 | 676 | 3.106509 | 7.406737 | 0.0 | 1.265683 | 0.0000 | 0 | 60 | 60 | 3.7767077 | 17.6210730 | 0.2848745 |
| TIEMPO.MATERIALES* | 17 | 5300 | 1.102453 | 0.682923 | 1.0 | 1.000000 | 0.0000 | 1 | 13 | 12 | 9.0669699 | 97.0207719 | 0.0093807 |
| MERMAS.Maquinas. | 18 | 24 | 2.208333 | 1.102533 | 2.0 | 2.150000 | 1.4826 | 1 | 4 | 3 | 0.3515919 | -1.3010627 | 0.2250537 |
Esta tabla de frecuencias nos dice que en FORM el salario promedio es de $179.
# install.packages("psych")
library(psych)
describe(data6) # Función que nos da datos descriptivos
## vars n mean sd median trimmed mad min max range
## Fecha 1 5300 NaN NA NA NaN NA Inf -Inf -Inf
## CLIENTE* 2 5299 6.98 2.62 7.00 6.98 1.48 1 12 11
## PIEZAS.PROG. 3 5300 28.18 36.10 25.00 23.20 7.41 0 800 800
## TMO..MIN. 4 5300 10.30 3.21 10.30 10.36 0.00 0 70 70
## Laminas.procesadas 5 5300 4.76 5.59 4.76 4.09 2.62 0 97 97
## skew kurtosis se
## Fecha NA NA NA
## CLIENTE* 0.07 0.22 0.04
## PIEZAS.PROG. 10.70 165.61 0.50
## TMO..MIN. 5.01 82.01 0.04
## Laminas.procesadas 5.27 54.30 0.08
# Sacamos moda con otra función ya que en la función describe no nos la da
mode <- function (x) {
ux <- unique(x)
ux [which.max(tabulate(match(x,ux)))]
}
mode <- mode(data6$PIEZAS.PROG.)
mode
## [1] 28.18454
Variables <-c("Piezas programadas" )
Media <-c("28.18" )
Mediana <-c("25" )
Moda <- c("28.18")
Desviacion_estandar <-c("36.10" )
table1 <- describe(data)
knitr::kable(table1)
| vars | n | mean | sd | median | trimmed | mad | min | max | range | skew | kurtosis | se | |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Fecha* | 1 | 5300 | 29.284717 | 17.493629 | 29.0 | 29.264623 | 23.7216 | 1 | 58 | 57 | 0.0064672 | -1.2818588 | 0.2402935 |
| No. | 2 | 5274 | 48.189041 | 29.437293 | 46.0 | 47.121090 | 35.5824 | 1 | 121 | 120 | 0.2499196 | -0.9584016 | 0.4053478 |
| CLIENTE* | 3 | 5299 | 6.975090 | 2.617878 | 7.0 | 6.979014 | 1.4826 | 1 | 12 | 11 | 0.0736036 | 0.2211464 | 0.0359627 |
| ID.FORM* | 4 | 5299 | 143.393659 | 85.453129 | 152.0 | 142.013912 | 99.3342 | 1 | 311 | 310 | 0.0098375 | -0.9025308 | 1.1738997 |
| PRODUCTO* | 5 | 5300 | 218.204528 | 123.083001 | 218.0 | 221.840094 | 149.7426 | 1 | 408 | 407 | -0.1680240 | -1.2048808 | 1.6906750 |
| X* | 6 | 5300 | 124.773962 | 99.349535 | 92.0 | 117.475000 | 130.4688 | 1 | 339 | 338 | 0.4240316 | -0.9917658 | 1.3646708 |
| PIEZAS.PROG. | 7 | 3804 | 28.184543 | 42.610363 | 20.0 | 20.978975 | 7.4130 | 0 | 800 | 800 | 9.0626518 | 118.0020228 | 0.6908678 |
| TMO..MIN.* | 8 | 5300 | 118.286793 | 90.535906 | 131.0 | 114.214151 | 100.8168 | 1 | 274 | 273 | 0.0092239 | -1.1219211 | 1.2436063 |
| HR..FIN* | 9 | 5300 | 84.927925 | 14.275750 | 87.0 | 86.411557 | 14.8260 | 1 | 99 | 98 | -2.2309927 | 9.7820520 | 0.1960925 |
| ESTACION.ARRANQUE* | 10 | 5300 | 128.931509 | 151.437504 | 43.5 | 107.197170 | 63.0105 | 1 | 480 | 479 | 0.8514809 | -0.6492739 | 2.0801541 |
| Laminas.procesadas* | 11 | 5300 | 177.477170 | 247.368831 | 3.0 | 134.551179 | 2.9652 | 1 | 754 | 753 | 1.0927667 | -0.3197660 | 3.3978722 |
| INICIO.SEP.UP* | 12 | 5300 | 171.862830 | 241.797486 | 2.0 | 128.451887 | 1.4826 | 1 | 748 | 747 | 1.1205817 | -0.2259700 | 3.3213439 |
| FIN.INICIO.DE.SEP.UP* | 13 | 5300 | 279.906604 | 301.987843 | 206.0 | 245.659670 | 303.9330 | 1 | 886 | 885 | 0.6272972 | -1.0548002 | 4.1481220 |
| INICIO.de.PROCESO* | 14 | 5300 | 284.753585 | 303.733582 | 223.0 | 248.791745 | 329.1372 | 1 | 905 | 904 | 0.6060365 | -1.0362020 | 4.1721016 |
| FIN.de.PROCESO* | 15 | 5300 | 10.405283 | 14.371053 | 12.0 | 7.844104 | 0.0000 | 1 | 109 | 108 | 3.7375855 | 16.1045786 | 0.1974016 |
| TIEMPO.CALIDAD | 16 | 676 | 3.106509 | 7.406737 | 0.0 | 1.265683 | 0.0000 | 0 | 60 | 60 | 3.7767077 | 17.6210730 | 0.2848745 |
| TIEMPO.MATERIALES* | 17 | 5300 | 1.102453 | 0.682923 | 1.0 | 1.000000 | 0.0000 | 1 | 13 | 12 | 9.0669699 | 97.0207719 | 0.0093807 |
| MERMAS.Maquinas. | 18 | 24 | 2.208333 | 1.102533 | 2.0 | 2.150000 | 1.4826 | 1 | 4 | 3 | 0.3515919 | -1.3010627 | 0.2250537 |
Esta tabla de frecuencia nos dice que en FORM el tiempo promedio que se tarda producción es de 10 minutos, que se programan al rededor de 28 piezas y al final se procesan 4.
# install.packages("psych")
library(psych)
describe(bd_scrap4) # Función que nos da datos descriptivos
## vars n mean sd median trimmed mad min max range skew
## Fecha 1 250 NaN NA NA NaN NA Inf -Inf -Inf NA
## Cantidad 2 250 6.70 11.85 2 3.88 1.48 0 96 96 4.12
## Ubi_origen* 3 250 2.48 0.85 3 2.60 0.00 1 3 2 -1.10
## kurtosis se
## Fecha NA NA
## Cantidad 21.14 0.75
## Ubi_origen* -0.70 0.05
# Sacamos moda con otra función ya que en la función describe no nos la da
mode <- function (x) {
ux <- unique(x)
ux [which.max(tabulate(match(x,ux)))]
}
mode <- mode(bd_scrap4$Cantidad)
mode
## [1] 1
Variables <-c("Cantidad" )
Media <-c("6.70" )
Mediana <-c("2" )
Moda <- c("1")
Desviacion_estandar <-c("11.85" )
table1 <-data.frame(Variables, Media , Mediana , Moda, Desviacion_estandar)
knitr::kable(table1)
| Variables | Media | Mediana | Moda | Desviacion_estandar |
|---|---|---|---|---|
| Cantidad | 6.70 | 2 | 1 | 11.85 |
Esta tabla de frecuencia nos dice que en FORM las unidades de Scrap promedio son de 6.
# install.packages("psych")
library(psych)
describe(bd_merma5) # Función que nos da datos descriptivos
## vars n mean sd median trimmed mad min max range skew
## Fecha 1 50 NaN NA NA NaN NA Inf -Inf -Inf NA
## Kilos 2 50 3708.52 1023.99 3925 3798.65 541.15 790 6140 5350 -0.94
## kurtosis se
## Fecha NA NA
## Kilos 1.65 144.81
# Sacamos moda con otra función ya que en la función describe no nos la da
mode <- function (x) {
ux <- unique(x)
ux [which.max(tabulate(match(x,ux)))]
}
mode <- mode(bd_merma5$Kilos)
mode
## [1] 3810
Variables <-c("Kilos")
Media <-c("3709.52")
Mediana <-c("3925")
Moda <-c("3810")
Desviacion_estandar <-c("1023.99")
table2 <-data.frame(Variables, Media, Mediana, Moda, Desviacion_estandar)
knitr::kable(table2)
| Variables | Media | Mediana | Moda | Desviacion_estandar |
|---|---|---|---|---|
| Kilos | 3709.52 | 3925 | 3810 | 1023.99 |
Esta tabla de frecuencia nos dice que en FORM en promedio se tienen 3,708 kilos de merma.
# install.packages("psych")
library(psych)
describe(bd_delivery_perf3) # Función que nos da datos descriptivos
## vars n mean sd median trimmed mad min max range skew
## fecha 1 52 NaN NA NA NaN NA Inf -Inf -Inf NA
## cliente* 2 52 2.50 1.13 2.5 2.50 1.48 1 4.00 3.00 0.00
## delay_performance 3 52 16.07 24.63 0.0 11.88 0.00 0 71.25 71.25 1.15
## kurtosis se
## fecha NA NA
## cliente* -1.42 0.16
## delay_performance -0.33 3.42
# Sacamos moda con otra función ya que en la función describe no nos la da
mode <- function (x) {
ux <- unique(x)
ux [which.max(tabulate(match(x,ux)))]
}
mode <- mode(bd_delivery_perf3$delay_performance)
mode
## [1] 0
Variables <-c("Diferencia Delivery")
Media <-c("16.07")
Mediana <-c("0")
Moda <- c("0")
Desviacion_estandar <-c("24.63")
table3 <-data.frame(Variables, Media, Mediana, Moda, Desviacion_estandar)
knitr::kable(table3)
| Variables | Media | Mediana | Moda | Desviacion_estandar |
|---|---|---|---|---|
| Diferencia Delivery | 16.07 | 0 | 0 | 24.63 |
# install.packages("psych")
library(psych)
describe(dp1) # Función que nos da datos descriptivos
## Warning in FUN(newX[, i], ...): no non-missing arguments to min; returning Inf
## Warning in FUN(newX[, i], ...): no non-missing arguments to max; returning -Inf
## vars n mean sd median trimmed mad min max range skew
## ID_Fecha 1 228 6.50 3.46 6.5 6.50 4.45 1 12 11 0.00
## Fecha 2 228 NaN NA NA NaN NA Inf -Inf -Inf NA
## CLIENTE* 3 228 10.00 5.49 10.0 10.00 7.41 1 19 18 0.00
## Pedidos 4 228 1703.14 6164.04 0.0 251.26 0.00 0 52779 52779 5.69
## kurtosis se
## ID_Fecha -1.23 0.23
## Fecha NA NA
## CLIENTE* -1.22 0.36
## Pedidos 37.14 408.22
# Sacamos moda con otra función ya que en la función describe no nos la da
mode <- function (x) {
ux <- unique(x)
ux [which.max(tabulate(match(x,ux)))]
}
mode <- mode(dp1$Pedidos)
mode
## [1] 0
Variables <-c("Diferencia Delivery")
Media <-c("1,703")
Mediana <-c("0")
Moda <- c("0")
Desviacion_estandar <-c("6,164.04")
table4 <-data.frame(Variables, Media, Mediana, Moda, Desviacion_estandar)
knitr::kable(table4)
| Variables | Media | Mediana | Moda | Desviacion_estandar |
|---|---|---|---|---|
| Diferencia Delivery | 1,703 | 0 | 0 | 6,164.04 |
Esta tabla de frecuencia nos dice que en FORM los números de pedidos estan en promedio 1,703.
# install.packages("psych")
library(psych)
describe(bd_externa) # Función que nos da datos descriptivos
## vars n mean sd median trimmed
## Year 1 14 2013.50 4.18 2013.50 2013.50
## Total_Production 2 14 10077.11 1880.71 10822.59 10265.83
## Production_Passenger_Cars 3 14 3326.39 823.81 3382.30 3356.35
## Production_Commercial_Vehicles 4 14 6750.72 1521.04 6890.84 6873.69
## Domestic_Sales 5 14 11995.81 2018.16 12583.17 12162.17
## Sales_Passenger_Cars 6 14 4490.79 918.19 4541.92 4558.45
## Sales_Commercial_Vehicles 7 14 7505.02 1788.05 7634.25 7552.32
## US_Unemployment 8 14 6.43 2.09 5.98 6.39
## US_Consumer_Confidence 9 14 82.29 11.93 82.84 82.50
## US_Min_Hour_Wage 10 14 7.03 0.52 7.25 7.13
## mad min max range skew kurtosis
## Year 5.19 2007.00 2020.00 13.00 0.00 -1.46
## Total_Production 1573.18 5710.29 12179.30 6469.01 -0.83 -0.42
## Production_Passenger_Cars 1020.96 1924.40 4368.84 2444.44 -0.22 -1.58
## Production_Commercial_Vehicles 1824.38 3513.84 8512.03 4998.19 -0.58 -0.88
## Domestic_Sales 1646.83 7867.77 14127.53 6259.76 -0.66 -1.03
## Sales_Passenger_Cars 1042.10 2559.78 5609.88 3050.10 -0.45 -0.97
## Sales_Commercial_Vehicles 2071.49 4309.48 10132.95 5823.47 -0.22 -1.37
## US_Unemployment 2.75 3.68 9.61 5.93 0.18 -1.65
## US_Consumer_Confidence 15.64 63.75 98.37 34.62 -0.14 -1.54
## US_Min_Hour_Wage 0.00 5.50 7.25 1.75 -1.97 2.56
## se
## Year 1.12
## Total_Production 502.64
## Production_Passenger_Cars 220.17
## Production_Commercial_Vehicles 406.52
## Domestic_Sales 539.38
## Sales_Passenger_Cars 245.40
## Sales_Commercial_Vehicles 477.88
## US_Unemployment 0.56
## US_Consumer_Confidence 3.19
## US_Min_Hour_Wage 0.14
# Sacamos moda con otra función ya que en la función describe no nos la da
mode <- function (x) {
ux <- unique(x)
ux [which.max(tabulate(match(x,ux)))]
}
mode <- mode(bd_externa$Total_Production)
mode
## [1] 10752.31
Variable <-c("Producción total" )
Media <-c("10077.11" )
Mediana <-c("10822.59" )
Moda <- c("10752.31")
Desviacion_estandar <-c("1880.71" )
table <-data.frame(Variable, Media, Mediana, Moda, Desviacion_estandar)
knitr::kable(table)
| Variable | Media | Mediana | Moda | Desviacion_estandar |
|---|---|---|---|---|
| Producción total | 10077.11 | 10822.59 | 10752.31 | 1880.71 |
barplot(prop.table(table(data6$Laminas.procesadas)),col=c("orange"),main="Laminas procesadas",xlab = "Laminas", ylab ="Frecuencias",las=1)
library(plyr)
porcentajes <- as.numeric(round(((prop.table(table(bd_scrap4$Ubi_origen)))*100),2))
etiquetas <- c("Calidad/Entrega de PT","Post-Producción","Pre-Producción")
etiquetas <- paste(etiquetas, porcentajes)
etiquetas <- paste(etiquetas, "%", sep = "")
pie(porcentajes,etiquetas,col=c("Red","Blue","Orange"),main="Ubicación de origen: Scrap", ylab ="Frecuencias",las=1)
Con la siguiente función podremos identificar los principales clientes para generar un análisis con la información relevante, pues hay clientes con pocos o sin pedidos por lo que generar un diagnóstico respecto a delivery plan con esos datos no es necesario.
ggplot(dp1, aes(x=reorder(CLIENTE,Pedidos), y=Pedidos)) +
geom_bar(stat="identity")+
coord_flip()
Como siguiente paso eliminaremos todos los clientes que no nos interesan para el análisis y dejaremos el top 6 de clientes para el ejercicio.
dp2 <- dp1
dp2<-dp2[dp2$CLIENTE!="ABC QUERETARO",]
dp2<-dp2[dp2$CLIENTE!="ANTOLIN ARTEAGA",]
dp2<-dp2[dp2$CLIENTE!="ANTOLIN TOLUCA",]
dp2<-dp2[dp2$CLIENTE!="ISRI",]
dp2<-dp2[dp2$CLIENTE!="SEGROVE",]
dp2<-dp2[dp2$CLIENTE!="STB 1",]
dp2<-dp2[dp2$CLIENTE!="UFI",]
dp2<-dp2[dp2$CLIENTE!="YF QRO",]
dp2<-dp2[dp2$CLIENTE!="INOAC POLYTEC",]
dp2<-dp2[dp2$CLIENTE!="HANON",]
dp2<-dp2[dp2$CLIENTE!="MERIDIAN",]
dp2<-dp2[dp2$CLIENTE!="YF RAMOS",]
dp2<-dp2[dp2$CLIENTE!="YANFENG sm",]
ggplot(dp2,aes(x=Fecha, y=Pedidos,fill=CLIENTE))+
geom_bar(stat="identity")+
geom_hline(yintercept=33,linetype="dashed",color="black")+
labs(x="Fecha",y="Número de pedidos", color="Legend")+
ggtitle("Pedidos por fecha")
# as.data.frame(bajas_bd)
# as.data.frame(colab_bd)
colab_bd2<-colab_bd %>% dplyr::select(genero,edad,salario_diario) %>% dplyr::group_by(genero) %>%
dplyr::summarise(across(everything(),mean,na.rm=TRUE)) %>% arrange(desc(edad))
ggplot(colab_bd2, aes(x=reorder(genero,edad), y=edad, fill=(salario_diario))) +
geom_bar(stat="identity",col=c("black"))+
coord_flip()+
guides(fill=guide_legend(reverse=FALSE))
ggplot(colab_bd, aes(x=genero, y=salario_diario, fill=genero)) +
geom_bar(stat="identity") +
facet_grid(~civil) + scale_fill_brewer(palette = "Set2")
bajas_bd2<-bajas_bd %>% dplyr::select(motivo_baja,edad,duracion) %>% group_by(motivo_baja) %>%
dplyr::summarise(across(everything(),mean,na.rm=TRUE)) %>% arrange(desc(edad))
ggplot(bajas_bd2, aes(x=reorder(motivo_baja,edad), y=edad, fill=(duracion))) +
geom_bar(stat="identity",col=c("black"))+
coord_flip()+
guides(fill=guide_legend(reverse=FALSE))
ggplot(bajas_bd, aes(x=genero, y=salario_diario, fill=genero)) +
geom_bar(stat="identity") +
facet_grid(~e.civil.) + scale_fill_brewer(palette = "Set2")
plot(data6$TMO..MIN., xlab = "Proceso de lamina", ylab = "Tiempo", main = "Tiempo por Lamina" )
ggplot(bd_merma5, aes(x= Fecha, y= Kilos)) + geom_bar(stat="identity", fill="red") + scale_fill_grey() + labs(title = "Kilos de merma", x = "Fecha")
bd_merma5$Fecha <- as.Date(bd_merma5$Fecha, format = "%d/%m/%Y")
plot(bd_merma5$Fecha, bd_merma5$Kilos, main = "Kilos de merma",
xlab = "Fecha", ylab = "Kilos",
pch = 19, frame = FALSE)
hist(bd_scrap4$Cantidad, main = "Cantidad de Material reciclado", xlab = "Cantidad", ylab = "Frecuencia",col = "blue")
plot(bd_scrap4$Fecha, bd_scrap4$Cantidad, main = "Cantidad de Scrap por fecha", xlab = "Fecha", ylab = "Cantidad")
plot(dp2$Fecha, dp2$Pedidos, main = "Pedidos por fecha",
xlab = "Fecha", ylab = "Pedidos",
pch = 1, frame = FALSE)
boxplot(dp2$Pedidos, main = "Pedidos")
Después de generar un boxplot de pedidos en general, realizamos un boxplot que nos muestra los pedidos por cliente
dp3 <- dp2
dp3$CLIENTE<-as.factor(dp3$CLIENTE)
ggplot(dp3, aes(x=CLIENTE, y=Pedidos)) +
geom_boxplot(color="red", fill="orange", alpha=0.2)
ggplot(bd_delivery_perf3,aes(x=fecha, y=delay_performance,color=cliente))+
geom_line()+
labs(x="Fecha",y="Retraso en Minutos", color="Legend")+
ggtitle("Retrasos en el desempeño por parte del cliente")
bd_delivery_perf3<-bd_delivery_perf3[bd_delivery_perf3$cliente!="Magna",]
bd_delivery_perf3<-bd_delivery_perf3[bd_delivery_perf3$cliente!="Varroc",]
ggplot(bd_delivery_perf3,aes(x=fecha, y=delay_performance,fill=cliente))+
geom_bar(stat="identity")+
geom_hline(yintercept=33,linetype="dashed",color="black")+
labs(x="Fecha",y="Retraso en minutos", color="Legend")+
ggtitle("Retrasos en el desempeño por parte del cliente")
Nuestro top 3 clientes de producción son STABILUS 1, STABILUS 3 y TRMX.
Traemos un retraso mayor en distribución con el cliente Mahle, arriba del promedio llegando incluso a tiempos de 1 hora con 40 minutos.
Se tienen sobrepedidos (arriba del promedio) y esto puede afectar si no se tienen la capacidad para recibir pedidos de más.
Dentro de RH tenemos más bajas por distintos motivos: en primer lugar esta por Jubilación, en segundo lugar Renuncia voluntaria y en tercer lugar Baja por Faltas.
Se cambian los nombres de las columnas.
names (base) = c("año", "prod_total", "prod_passenger", "prod_veh_comerciales", "ventas_domesticas", "ventas_passenger","ventas_comerciales","desempleo_usa","confianza_cons_usa","salario_hora_min_usa")
names (base)
## [1] "año" "prod_total" "prod_passenger"
## [4] "prod_veh_comerciales" "ventas_domesticas" "ventas_passenger"
## [7] "ventas_comerciales" "desempleo_usa" "confianza_cons_usa"
## [10] "salario_hora_min_usa"
str(base)
## 'data.frame': 14 obs. of 10 variables:
## $ año : int 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 ...
## $ prod_total : num 10752 8672 5710 7744 8662 ...
## $ prod_passenger : num 3867 3731 2196 2732 2978 ...
## $ prod_veh_comerciales: num 6885 4941 3514 5012 5685 ...
## $ ventas_domesticas : num 12687 10108 7868 9020 10109 ...
## $ ventas_passenger : num 5197 4491 3558 3792 4146 ...
## $ ventas_comerciales : num 7490 5617 4309 5229 5963 ...
## $ desempleo_usa : num 4.62 5.8 9.28 9.61 8.93 8.08 7.36 6.16 5.28 4.88 ...
## $ confianza_cons_usa : num 85.6 63.8 66.3 71.8 67.3 ...
## $ salario_hora_min_usa: num 5.5 6.2 6.9 7.25 7.25 7.25 7.25 7.25 7.25 7.25 ...
En este caso, se escoge como variable dependiente las ventas de los carros passenger, por ello entiéndase los automóviles de uso cotidiano en Estados Unidos. Para esta variable dependiente, se han tomado las siguientes variables independientes, con el fin de notar su efecto en las ventas. Estas son:
Desempleo USA: este índice es calculado anualmente con la formula. (Unemployed ÷ Labor Force) x 100. Entre menor mejor.
Confianza del consumidor de USA: índice que mide, a partir de una encuesta que tan optimistas o pesimistas se encuentran los consumidores sobre su situación financiera. Entre mayor, mejor.
Salario mínimo por hora: se mide en dólares. Está establecido a nivel federal.
Año: los años que se tienen de los datos, 2007-2020.
regresion1 <- lm (ventas_passenger ~ desempleo_usa + confianza_cons_usa + salario_hora_min_usa + año, data=base)
summary (regresion1)
##
## Call:
## lm(formula = ventas_passenger ~ desempleo_usa + confianza_cons_usa +
## salario_hora_min_usa + año, data = base)
##
## Residuals:
## Min 1Q Median 3Q Max
## -850.29 -560.86 88.28 446.55 847.47
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 646180.04 197959.50 3.264 0.00977 **
## desempleo_usa -255.04 217.62 -1.172 0.27129
## confianza_cons_usa 46.68 41.57 1.123 0.29062
## salario_hora_min_usa 1394.06 697.08 2.000 0.07657 .
## año -324.65 100.49 -3.231 0.01031 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 712.5 on 9 degrees of freedom
## Multiple R-squared: 0.5831, Adjusted R-squared: 0.3978
## F-statistic: 3.147 on 4 and 9 DF, p-value: 0.0707
Para la tasa de desempleo y el índice de confianza del consumidor, se ha decidido tomar el promedio del 2007 al 2020, para poder predecir. Con el salario mínimo por hora, al ser establecido a nivel federal, se toma en cuenta la última cantidad: $7.25 dólares. Se quieren las predicciones para los siguientes cinco años, a partir del último año con datos (2020).
datos_nuevos1 <- data.frame(desempleo_usa=6.43,confianza_cons_usa=82.3,salario_hora_min_usa=7.25,año=2021:2025)
predict(regresion1,datos_nuevos1)
## 1 2 3 4 5
## 2369.905 2045.254 1720.604 1395.954 1071.303
¿Qué observamos?
primer <- plot(predict(regresion1,datos_nuevos1), type = "l", xlab = "Año", ylab ="Ventas Passenger", main="Predicción de Ventas")
En esta predicción de ventas de automóviles passenger, observamos que es hacia abajo. Es decir, tomando en cuenta una tasa de desempleo de 6.43, un índice de confianza de 82.3 y el salario mínimo por hora de $7.25, se espera que las ventas de estos automóviles bajen en EUA del 2021 hasta 2025. Igualmente, resulta destacable mencionar que las variables que más impactan en las ventas de automóviles passenger son el año y el salario mínimo.
effect_plot(regresion1,pred=desempleo_usa,interval=TRUE)
Si tomamos en cuenta la tasa de desempleo de EUA, y su relación con las ventas de los automóviles passenger, observamos que esta es negativa. Debido a que al crecer la tasa de desempleo, bajan las ventas.
effect_plot(regresion1,pred=confianza_cons_usa,interval=TRUE)
Mientras que el índice de confianza del consumidor de EUA, y su relación
con las ventas de los automóviles passenger, observamos que
esta es positiva. Debido a que al crecer la confianza, incrementan las
ventas.
effect_plot(regresion1,pred=salario_hora_min_usa,interval=TRUE)
Igualmente, al subir el salario mínimo por hora, las ventas de los automóviles passenger incrementan.
effect_plot(regresion1,pred=año,interval=TRUE)
Con el pasar de los años las ventas han decrecido.
En este caso, se escoge como variable dependiente las ventas de los
carros comerciales, por ello entiéndase los cualquier tipo de
vehículo de motor utilizado para transportar mercancías o pasajeros en
Estados Unidos. Para esta variable dependiente, se han tomado las
siguientes variables independientes, con el fin de notar su efecto en
las ventas. Estas son:
1. Desempleo USA: este índice es calculado anualmente con la formula.
(Unemployed ÷ Labor Force) x 100. Entre menor mejor.
2. Confianza del consumidor de USA: índice que mide, a partir de una
encuesta que tan optimistas o pesimistas se encuentran los consumidores
sobre su situación financiera. Entre mayor, mejor.
3. Salario mínimo por hora: se mide en dólares. Está establecido a nivel
federal.
4. Año: los años que se tienen de los datos, 2007-2020.
regresion2 <- lm (ventas_comerciales ~ desempleo_usa + confianza_cons_usa + salario_hora_min_usa + año, data=base)
summary (regresion2)
##
## Call:
## lm(formula = ventas_comerciales ~ desempleo_usa + confianza_cons_usa +
## salario_hora_min_usa + año, data = base)
##
## Residuals:
## Min 1Q Median 3Q Max
## -731.58 -87.12 57.56 160.03 513.82
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -588817.41 97672.75 -6.028 0.000196 ***
## desempleo_usa -147.24 107.37 -1.371 0.203504
## confianza_cons_usa 50.55 20.51 2.464 0.035896 *
## salario_hora_min_usa -839.15 343.94 -2.440 0.037374 *
## año 297.49 49.58 6.000 0.000203 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 351.6 on 9 degrees of freedom
## Multiple R-squared: 0.9732, Adjusted R-squared: 0.9613
## F-statistic: 81.82 on 4 and 9 DF, p-value: 4.516e-07
Para la tasa de desempleo y el índice de confianza del consumidor, se ha decidido tomar el promedio del 2007 al 2020, para poder predecir. Con el salario mínimo por hora, al ser establecido a nivel federal, se toma en cuenta la última cantidad: $7.25 dólares. Se quieren las predicciones para los siguientes cinco años, a partir del último año con datos (2020).
datos_nuevos2 <- data.frame(desempleo_usa=6.43,confianza_cons_usa=82.3,salario_hora_min_usa=7.25,año=2021:2025)
predict(regresion2,datos_nuevos2)
## 1 2 3 4 5
## 9547.780 9845.274 10142.768 10440.262 10737.756
¿Qué observamos?
segundo <- plot(predict(regresion2,datos_nuevos2), type = "l", xlab = "Año", ylab ="Ventas Comerciales", main="Predicción de Ventas")
En esta predicción de ventas de automóviles comerciales, observamos que es hacia arriba Es decir, tomando en cuenta una tasa de desempleo de 6.43, un índice de confianza de 82.3 y el salario mínimo por hora de $7.25, se espera que las ventas de estos automóviles suban en EUA del 2021 hasta 2025. En el caso de las ventas de automóviles comerciales, notamos que el pasar de los años es la variable que más impacta, siguiendo por el nivel de confianza del consumidor y el salario mínimo por hora; mientras que el que menos afecta es la tasa de desempleo.
effect_plot(regresion2,pred=desempleo_usa,interval=TRUE)
Si tomamos en cuenta la tasa de desempleo de EUA, y su relación con las ventas de los automóviles comerciales, observamos que esta es negativa. Debido a que al crecer la tasa de desempleo, bajan las ventas.
effect_plot(regresion2,pred=confianza_cons_usa,interval=TRUE)
Mientras que el índice de confianza del consumidor de EUA, y su relación con las ventas de los automóviles comerciales, observamos que esta es positiva. Debido a que al crecer la confianza, incrementan las ventas. A comparación de la gráfica de ventas passenger con el nivel de confianza, observamos que en este caso la pendiente es más pronunciada, por lo que vemos un mayor impacto.
effect_plot(regresion2,pred=salario_hora_min_usa,interval=TRUE)
Igualmente, al subir el salario mínimo por hora, las ventas de los automóviles comerciales disminuyen. Este podría ser un tema interesante a investigar.
effect_plot(regresion2,pred=año,interval=TRUE)
Con el pasar de los años las ventas han incrementado.
Nuestra variable dependiente sera unidades de producción y las variables explanatorias en este caso serían unidades de exportacion y año.
mx_regresion1 <- lm (unidades_produccion ~ unidades_exportacion + año, data=bd_externaMX)
summary (mx_regresion1)
##
## Call:
## lm(formula = unidades_produccion ~ unidades_exportacion + año,
## data = bd_externaMX)
##
## Residuals:
## 1 2 3 4 5
## 32786 -40083 15888 -42671 34080
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 2.228e+08 5.666e+07 3.933 0.0590 .
## unidades_exportacion 8.527e-01 1.180e-01 7.223 0.0186 *
## año -1.099e+05 2.792e+04 -3.937 0.0589 .
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 54390 on 2 degrees of freedom
## Multiple R-squared: 0.9933, Adjusted R-squared: 0.9866
## F-statistic: 148.2 on 2 and 2 DF, p-value: 0.006703
Como resultado de la regresión podemos ver que existe una significancia de 0.05 con la variable de exportación en unidades vehiculares y lo que nos dice el modelo esque si aumenta la exportación aumenta la producción, pero después podemos ver que en año hay una tendencia negativa diciéndonos que decrecen las ventas con el año. El modelo tiene una R² de 0.98 teniendo un buen nivel de confianza.
Ahora graficaremos nuestra regresión, para las unidades de exportación se ha decidido tomar el media del 2017 al 2021 (3,096,421). Se quieren las predicciones para los siguientes cinco años, a partir del último año con datos (2021).
datos_nuevos1 <- data.frame(unidades_exportacion=3096421,año=2022:2026)
predict(mx_regresion1,datos_nuevos1)
## 1 2 3 4 5
## 3216556 3106643 2996729 2886816 2776902
¿Qué observamos?
prediccionmx1 <- plot(predict(mx_regresion1,datos_nuevos1), type = "l", xlab = "Año", ylab ="Exportaciones", main="Predicción de Exportaciones")
En esta predicción exportaciones de automoviles, observamos que es hacia abajo. Es decir, se espera que las exportaciones de los automóviles bajen en México del 2022 hasta 2026.
mx_regresion2 <- lm (unidades_ventas ~ desempleo + año, data=bd_externaMX)
summary (mx_regresion2)
##
## Call:
## lm(formula = unidades_ventas ~ desempleo + año, data = bd_externaMX)
##
## Residuals:
## 1 2 3 4 5
## 25338 -28279 -1471 -13570 17983
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 163028739 32739329 4.980 0.0380 *
## desempleo -281802 50603 -5.569 0.0308 *
## año -79602 16291 -4.886 0.0394 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 31240 on 2 degrees of freedom
## Multiple R-squared: 0.9926, Adjusted R-squared: 0.9851
## F-statistic: 133.5 on 2 and 2 DF, p-value: 0.007435
Como resultado de la regresión podemos ver que existe una significancia de 0.05 con la variable desempleo y año, teniendo una tendencia negativa en ambas, lo que quiere decir que si disminuye el desempleo aumentan las ventas y que con el paso de los años las ventas aumentan El modelo tiene una R² de 0.98 teniendo un buen nivel de confianza.
Ahora graficaremos nuestra regresión, para desempleo se ha decidido tomar la media del 2017 al 2021 (3.77). Se quieren las predicciones para los siguientes cinco años, a partir del último año con datos (2021).
datos_nuevos2 <- data.frame(desempleo=3.77, año=2022:2026)
predict(mx_regresion2,datos_nuevos2)
## 1 2 3 4 5
## 1010144.2 930541.7 850939.2 771336.8 691734.3
¿Qué observamos?
prediccionmx2 <- plot(predict(mx_regresion2,datos_nuevos2), type = "l", xlab = "Año", ylab ="Ventas", main="Predicción de Ventas")
Con el modelo podemos ver como tenemos la tendencia negativa decreciendo las ventas.
plot(bd_externa$Year,bd_externa$Production_Commercial_Vehicles, type="l",col="blue", lwd=1.5, xlab ="Year",ylab ="Thousands of Units", main = "Annual U.S. Motor Vehicle Sales")
lines(bd_externa$Year,bd_externa$Sales_Commercial_Vehicles,col="red",lty=3)
legend("topleft", legend=c("Domestic Commercial Sales", "Production Commercial Vehicles"),
col=c("blue", "red"), lty = 1:2, cex=0.8)
summary(ma_model<-arma(bd_externa$Total_Production,order=c(0,1)))
##
## Call:
## arma(x = bd_externa$Total_Production, order = c(0, 1))
##
## Model:
## ARMA(0,1)
##
## Residuals:
## Min 1Q Median 3Q Max
## -3425.7 -1313.0 141.6 1100.1 1449.5
##
## Coefficient(s):
## Estimate Std. Error t value Pr(>|t|)
## ma1 6.756e-01 1.610e-01 4.195 2.73e-05 ***
## intercept 1.010e+04 6.096e+02 16.569 < 2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Fit:
## sigma^2 estimated as 2094390, Conditional Sum-of-Squares = 25229390, AIC = 247.5
ma_model_forecast<-forecast(ma_model$fitted,h=3,level=c(95))
ma_model_forecast
## Point Forecast Lo 95 Hi 95
## 15 10455.67 8568.350 12342.99
## 16 10455.67 8438.084 12473.26
## 17 10455.67 8315.732 12595.61
plot(bd_externaMX$año,bd_externaMX$unidades_ventas, type="l",col="blue", lwd=1.5, xlab ="Año",ylab ="Millones de ventas", main = "Ventas anuales")
lines(bd_externaMX$año,bd_externaMX$unidades_ventas,col="red",lty=3)
ma_model<- bd_externaMX
ma_model_forecast<-forecast(ma_model$unidades_ventas,h=3,level=c(95))
ma_model_forecast
## Point Forecast Lo 95 Hi 95
## 6 887801 675739.5 1099862.5
## 7 779944 567882.5 992005.5
## 8 672087 460025.5 884148.5
Podemos ver que en la industria Automotriz de MX, específicamente en ventas de motores, tenemos una tendencia en decrecimieto y que nuestros intervalos de confianza van disminuyendo, pero las predicciones se encuentran entre 887801-672087 de ventas anuales de motores en MX para los próximos años.
plot(data6$Fecha,data6$PIEZAS.PROG., type="l",col="blue", lwd=1.5, xlab ="Fecha",ylab ="Piezas programadas", main = "Piezas programadas por fecha")
lines(data6$Fecha,data6$Laminas.procesadas,col="red",lty=3)
legend("topleft", legend=c("Piezas programadas", "Laminas procesadas"),
col=c("blue", "red"), lty = 1:2, cex=0.8)
(ma_model<-arma(data6$PIEZAS.PROG.,order=c(0,1)))
##
## Call:
## arma(x = data6$PIEZAS.PROG., order = c(0, 1))
##
## Coefficient(s):
## ma1 intercept
## 0.441 28.180
ma_model_forecast<-forecast(ma_model$fitted,h=3,level=c(95))
ma_model_forecast
## Point Forecast Lo 95 Hi 95
## 5301 25.55237 3.086481 48.01827
## 5302 25.41480 2.928867 47.90072
## 5303 25.30473 2.782038 47.82743
plot(dp1$Fecha,dp1$Pedidos, type="l",col="blue", lwd=1.5, xlab ="Fecha",ylab ="Piezas programadas", main = "Piezas programadas por fecha")
lines(dp1$Fecha,dp1$CLIENTE,col="red",lty=3)
legend("topleft", legend=c("Piezas programadas", "Laminas procesadas"),
col=c("blue", "red"), lty = 1:2, cex=0.8)
# Sumar el Total de PedidosxMes
pedidos <- c(18789,23932,52553,44100,37800,64279,42705,66060,11200)
pedidos_st <- ts(data = pedidos, start = c(2022,1), frequency = 12)
pedidos_st
## Jan Feb Mar Apr May Jun Jul Aug Sep
## 2022 18789 23932 52553 44100 37800 64279 42705 66060 11200
modelo <- auto.arima(pedidos_st)
modelo
## Series: pedidos_st
## ARIMA(0,0,0) with non-zero mean
##
## Coefficients:
## mean
## 40157.556
## s.e. 6078.173
##
## sigma^2 = 374055251: log likelihood = -101.07
## AIC=206.14 AICc=208.14 BIC=206.53
pronostico <- forecast(modelo, level=c(95), h=3)
pronostico
## Point Forecast Lo 95 Hi 95
## Oct 2022 40157.56 2250.856 78064.25
## Nov 2022 40157.56 2250.856 78064.25
## Dec 2022 40157.56 2250.856 78064.25
plot(pronostico)
# Sumar el Total de KilosxMes
merma <- c(14560,22830,22470,18820,23410,18280,19370,32100,13586)
merma_st <- ts(data = merma, start = c(2022,1), frequency = 12)
merma_st
## Jan Feb Mar Apr May Jun Jul Aug Sep
## 2022 14560 22830 22470 18820 23410 18280 19370 32100 13586
modelo <- auto.arima(merma_st)
modelo
## Series: merma_st
## ARIMA(0,0,0) with non-zero mean
##
## Coefficients:
## mean
## 20602.889
## s.e. 1736.893
##
## sigma^2 = 30544665: log likelihood = -89.8
## AIC=183.59 AICc=185.59 BIC=183.99
pronostico <- forecast(modelo, level=c(95), h=3)
pronostico
## Point Forecast Lo 95 Hi 95
## Oct 2022 20602.89 9770.711 31435.07
## Nov 2022 20602.89 9770.711 31435.07
## Dec 2022 20602.89 9770.711 31435.07
plot(pronostico)
Podemos ver que en la industria Automotriz de USA, específicamente en ventas de motores, tenemos una tendencia continua y que nuestros intervalos de confianza ban disminuyendo, pero las predicciones se encuentran entre 8315.732-12595.61 de ventas anuales de motores en USA para los próximos años.
Para Form al desarrollar el pronóstico de Merma vemos que tenemos que para los próximos periodos de octubre, noviembre y diciembre tendremos una cantidad constante de 20602.89 kilos de merma y que nuestro intervalo de confianza cae entre 9770.711 a 31435.07.Interpretando la información vemos que a comparación del último mes de septiembre, los kilos crecerán.
1. K - means Clustering
K-means es un método de agrupamiento, que tiene como objetivo la
partición de un conjunto de observaciones en k grupos en el que cada
observación pertenece al grupo cuyo valor medio es más cercano. De esta
manera es que se puede analizar cada Cluster, obteniendo información
importante de cada variable y las similitudes entre ellas. Un claro
ejemplo de cómo funciona es usar clustering para comprimir imágenes con
pérdida de información y/o comprender qué hace a los clientes diferentes
para poder ofrecerles los productos y servicios que necesiten.
2. Unsupervised Learning
El “Unsupervised Learning” utiliza algoritmos de aprendizaje automático
para analizar y agrupar conjuntos de datos sin etiquetar. Estos
algoritmos descubren patrones ocultos o agrupaciones de datos sin
necesidad de intervención humana. No se asignan etiquetas al algoritmo
de aprendizaje, dejándolo solo para encontrar la estructura en su
entrada. El Unsupervised Learning puede ser un objetivo en sí mismo
(descubrir patrones ocultos en los datos) o un medio para lograr un fin
(aprendizaje de funciones).
3. Distancia Euclidiana / Euclidean Distance
La distancia euclidiana se define como la distancia entre dos puntos. La
distancia euclidiana entre dos puntos en el espacio euclidiano se define
como la longitud del segmento de línea entre dos puntos. La herramienta
Distancia euclidiana se utiliza con frecuencia como una herramienta
independiente para aplicaciones, como encontrar el hospital más cercano
para un vuelo de emergencia en helicóptero. Alternativamente, esta
herramienta se puede usar al crear un mapa de idoneidad, cuando se
necesitan datos que representan la distancia desde un objeto
determinado.
Descargar librerías
library(foreign)
library(dplyr) # data manipulation
library(ggplot2) # data visualization
#install.packages("psych")
library(psych) # functions for multivariate analysis
library(corrplot) # correlation plots
library(jtools) # presentation of regression analysis
library(lmtest) # diagnostic checks - linear regression analysis
library(car) # diagnostic checks - linear regression analysis
library(factoextra) # provides functions to extract and visualize the output of exploratory multivariate data analyses
#install.packages("ggfortify")
library(ggfortify) # data visualization tools for statistical analysis results
library(ggalluvial)
Se importa la base de datos de BAJAS ya limpia.
#file.choose()
bajas<-read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/ClustersBajasFORM.csv")
summary(bajas)
## nombre edad duracion salario_diario
## Length:233 Min. :18.00 Min. : 0.00 Min. :144.4
## Class :character 1st Qu.:23.00 1st Qu.: 9.00 1st Qu.:180.7
## Mode :character Median :29.00 Median : 20.50 Median :180.7
## Mean :30.77 Mean : 75.59 Mean :177.9
## 3rd Qu.:37.00 3rd Qu.: 47.00 3rd Qu.:180.7
## Max. :61.00 Max. :1966.00 Max. :500.0
## estado e.civil. genero alta
## Length:233 Length:233 Length:233 Length:233
## Class :character Class :character Class :character Class :character
## Mode :character Mode :character Mode :character Mode :character
##
##
##
## motivo_baja puesto
## Length:233 Length:233
## Class :character Class :character
## Mode :character Mode :character
##
##
##
¿Cuántos NA tengo por variables?
sapply(bajas,function(x) sum(is.na(x)))
## nombre edad duracion salario_diario estado
## 0 0 0 0 0
## e.civil. genero alta motivo_baja puesto
## 0 0 0 0 0
bajas_new<-bajas
bajas_new<-subset(bajas_new,select = -c(alta,estado,nombre))
summary(bajas_new)
## edad duracion salario_diario e.civil.
## Min. :18.00 Min. : 0.00 Min. :144.4 Length:233
## 1st Qu.:23.00 1st Qu.: 9.00 1st Qu.:180.7 Class :character
## Median :29.00 Median : 20.50 Median :180.7 Mode :character
## Mean :30.77 Mean : 75.59 Mean :177.9
## 3rd Qu.:37.00 3rd Qu.: 47.00 3rd Qu.:180.7
## Max. :61.00 Max. :1966.00 Max. :500.0
## genero motivo_baja puesto
## Length:233 Length:233 Length:233
## Class :character Class :character Class :character
## Mode :character Mode :character Mode :character
##
##
##
Se toman en cuenta la edad y la duración dentro de la empresa.
bajas_edaddur_norm<-scale(bajas_new[1:2])
fviz_nbclust(bajas_edaddur_norm, kmeans, method="wss")+
geom_vline(xintercept=4, linetype=2)+
labs(subtitle = "Elbow method")
Se toman en cuenta, primeramente, solo 4 clusters.
edad_cluster1<-kmeans(bajas_edaddur_norm,4)
edad_cluster1
## K-means clustering with 4 clusters of sizes 44, 4, 77, 108
##
## Cluster means:
## edad duracion
## 1 1.6018961 -0.08724706
## 2 1.0813717 6.65505218
## 3 0.2101465 -0.10444505
## 4 -0.8425018 -0.13647287
##
## Clustering vector:
## 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
## 3 3 4 4 3 1 3 3 1 4 4 3 4 3 3 4 4 4 4 4
## 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
## 3 2 4 3 1 4 3 4 4 4 3 4 4 4 3 4 4 3 3 4
## 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60
## 4 3 4 4 4 4 4 4 1 1 1 2 4 1 4 4 1 4 4 4
## 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80
## 4 4 3 4 4 1 4 1 4 4 4 4 3 4 3 4 3 4 4 1
## 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100
## 2 3 1 4 4 4 1 4 4 4 3 1 1 4 4 3 1 3 4 3
## 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120
## 4 4 1 3 4 4 3 2 3 4 3 3 4 3 3 3 1 1 1 4
## 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140
## 4 4 4 4 3 4 3 1 4 3 4 1 4 3 4 3 1 3 1 3
## 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160
## 3 1 1 1 4 3 3 3 4 4 4 3 1 1 4 3 4 3 1 1
## 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180
## 1 1 3 1 4 4 3 4 4 1 3 1 4 1 3 3 1 3 3 4
## 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200
## 4 4 3 1 3 3 4 4 3 3 3 3 3 3 4 3 3 3 3 4
## 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220
## 3 1 3 4 4 4 1 4 4 4 3 3 4 4 3 3 3 1 4 4
## 221 222 223 224 225 226 227 228 229 230 231 232 233
## 3 4 4 4 3 1 3 1 4 4 4 4 4
##
## Within cluster sum of squares by cluster:
## [1] 20.68423 15.74846 31.40781 18.16981
## (between_SS / total_SS = 81.5 %)
##
## Available components:
##
## [1] "cluster" "centers" "totss" "withinss" "tot.withinss"
## [6] "betweenss" "size" "iter" "ifault"
fviz_cluster(edad_cluster1,data=bajas_edaddur_norm)
Al observar vemos cuatro clusters que toman en cuenta la edad y la
duración:
1. El rojo (será llamado “Senior”) es un cluster que observamos que son
personas de edad mediana-alta y que durán relativamente poco tiempo,
entran dentro del 25% con menor duración.
2. El verde (“Expert”) es el cluster que más se aparta de los demás; son
personas con un mayor rango de edad pero que se alejan de los más
jóvenes, y que han durado mucho má tiempo. Se encuentran en el 50%
superior del tiempo de duración.
3. El azul (“junior”) resulta el cluster intermedio de los de menor
duración. Son personas en un rango de edad medio que también son parte
del 25% inferior que más han durado.
4. El morado (“beginner”) es el segmento más joven y que de las personas
(en general) menos han durado. Se puede considerar que los jóvenes son
los que menos duran en Form a partir de este cluster.
bajas_new2<-bajas_new
bajas_new2$Clusters<-edad_cluster1$cluster
bajas_new3<-bajas_new2 %>% group_by(Clusters) %>% dplyr:: summarise(edad=max(edad)) %>% arrange(desc(edad))
bajas_new2$Cluster_Names<-factor(bajas_new2$Clusters,levels = c(1,2,3,4),
labels=c("Senior", "Expert", "Junior", "Beginner"))
bajas_new4 <- bajas_new2 %>% group_by(Cluster_Names) %>% dplyr::summarise(edad_años=max(edad),
duracion=mean(duracion),
Count=n())
clusters<-as.data.frame(bajas_new4)
clusters
## Cluster_Names edad_años duracion Count
## 1 Senior 57 56.78409 44
## 2 Expert 61 1509.75000 4
## 3 Junior 39 53.07792 77
## 4 Beginner 27 46.17593 108
A partir de la tabla, observamos las edades máximas encontradas en cada clúster. Conocemos que la persona con mayor edad en los expert tiene 61, en senior tiene 57, en junior tiene 39 y en beginnner 27.
Igualmente, vemos la duración máxima que ha durado alguien de cada cluster, comparamos el máximo del mayor, expert, que han sido más de 1,500 días, con el máximo del menor, beginner, que han sido 46 días.
ggplot(bajas_new4,aes(x=reorder(Cluster_Names,Count),y=Count,fill=Cluster_Names)) +
geom_bar(stat="identity")
Existe una mayor cantidad de “beginners”.
ggplot(bajas_new4, aes(x=Cluster_Names,y=edad_años,fill= Cluster_Names,label=round(edad_años,digits=2))) +
geom_col() +
geom_text()
Comparamos la edad máxima en cada clúster (descrito anteriormente).
ggplot(bajas_new4,aes(x=Cluster_Names,y=duracion,fill= Cluster_Names,label=round(duracion,digits=2))) +
geom_col() +
geom_text()
Comparamos los días máximos en cada clúster (descrito anteriormente).
Debido a quee una gráfica anterior indicaba la posibilidad de tener otro clúster que describa a otro grupo, hacemos lo mismo con 5 segmentos, en vez de 4.
bajas_edaddur_norm2<-scale(bajas_new[1:2])
fviz_nbclust(bajas_edaddur_norm2, kmeans, method="wss")+
geom_vline(xintercept=4, linetype=2)+
labs(subtitle = "Elbow method")
edad_cluster2<-kmeans(bajas_edaddur_norm,5)
edad_cluster2
## K-means clustering with 5 clusters of sizes 42, 4, 71, 8, 108
##
## Cluster means:
## edad duracion
## 1 1.5984349 -0.1859579
## 2 1.0813717 6.6550522
## 3 0.2360562 -0.2410113
## 4 0.2818274 1.9125942
## 5 -0.8377255 -0.1573975
##
## Clustering vector:
## 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
## 4 3 5 5 3 1 3 3 1 5 5 3 5 3 4 5 5 5 5 5
## 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
## 3 2 5 3 1 5 3 5 5 5 3 5 5 5 3 5 5 4 3 5
## 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60
## 4 4 5 5 5 5 5 5 1 1 1 2 5 1 5 5 1 5 5 5
## 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80
## 5 5 3 5 5 1 5 4 4 5 5 5 3 5 3 5 3 5 5 1
## 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100
## 2 5 1 5 5 5 1 5 5 5 3 1 1 5 5 3 1 3 5 3
## 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120
## 5 5 1 3 5 5 3 2 3 5 3 3 5 3 3 3 1 1 1 5
## 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140
## 5 5 5 5 3 5 3 1 5 3 5 4 5 5 5 3 1 3 1 3
## 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160
## 3 1 1 1 5 3 3 3 5 5 5 3 1 1 5 3 5 3 1 1
## 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180
## 1 1 3 1 5 5 3 5 5 1 3 1 5 1 3 3 1 3 3 5
## 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200
## 5 5 3 1 3 3 5 5 3 3 3 3 3 3 5 3 3 3 3 5
## 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220
## 3 1 3 5 5 5 1 5 5 5 3 3 5 5 3 3 3 1 5 5
## 221 222 223 224 225 226 227 228 229 230 231 232 233
## 3 5 5 5 3 1 3 1 5 5 5 5 5
##
## Within cluster sum of squares by cluster:
## [1] 10.710205 15.748462 8.791395 7.972209 13.731016
## (between_SS / total_SS = 87.7 %)
##
## Available components:
##
## [1] "cluster" "centers" "totss" "withinss" "tot.withinss"
## [6] "betweenss" "size" "iter" "ifault"
fviz_cluster(edad_cluster2,data=bajas_edaddur_norm2)
Comparando esta gráfica de 5 segmentos contra la anteriormente vista
de 4. En esta observamos que separa un segmento que deja un “espacio”
que antes no existía; separa y crea un segmento que han durado aprox un
10% más de tieempo que las tres menores, y que se encuentra en rangos de
edad parecidos. A continuación se comparan los clusters:
1. El rojo (llamado “Senior”): es el nuevo, el cual tiene de baja a
mediana duración y un rango de edad mediana. Después de los que han
durado mucho, ellos van después.
El verde superior (llamado “Expert”): es el cluster que más se aparta de los demás; son personas con un mayor rango de edad pero que se alejan de los más jóvenes, y que han durado mucho má tiempo. Se encuentran en el 50% superior del tiempo de duración.
El verde inferior (llamado “Junior”) son personas adultas que han durado poco tiempo en la empresa, parte del 17% inferior de duración.
El morado (llamado “Middle”): al hacer el nuevo clúster nos damos cuenta de que existe un grupo de personas de mediana edad que duran muy poco, aún más poco que los jóvenes. Investigar estado civil.
El azul (llamado “Beginner”): son las personas más jóvenes y que también han durado poco tiempo. Se quedan aproximadamente por el 10% inferior.
bajas_new6<-bajas_new
bajas_new6$Clusters<-edad_cluster2$cluster
bajas_new7<-bajas_new6 %>% group_by(Clusters) %>% summarise(edad=max(edad)) %>% arrange(desc(edad))
bajas_new6$Cluster_Names<-factor(bajas_new6$Clusters,levels = c(1,2,3,4,5),
labels=c("Senior", "Expert", "Junior", "Middle","Beginner"))
Al analizar el estado civil de los 5 clústers, llegamos a las
siguientes conclusiones:
1. Del segmento “Senior”, el 75% son solteros. Este es el nuevo clúster
descubierto.
2. El 55% de las personas en el cluster “Middle” (menor duración) son
solteras, el 26% viven en unión libre, y un 19% que viven en
matrimonio.
3. De los expertos, el 75% son solteros.
Importar base de datos
rh_bajas <-read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/ClustersBajasFORM.csv")
Base de datos con valores CUANTITATIVOS
rh_bajas2<-rh_bajas
rh_bajas2<-subset(rh_bajas2,select = -c(alta,estado,nombre))
summary(rh_bajas2)
## edad duracion salario_diario e.civil.
## Min. :18.00 Min. : 0.00 Min. :144.4 Length:233
## 1st Qu.:23.00 1st Qu.: 9.00 1st Qu.:180.7 Class :character
## Median :29.00 Median : 20.50 Median :180.7 Mode :character
## Mean :30.77 Mean : 75.59 Mean :177.9
## 3rd Qu.:37.00 3rd Qu.: 47.00 3rd Qu.:180.7
## Max. :61.00 Max. :1966.00 Max. :500.0
## genero motivo_baja puesto
## Length:233 Length:233 Length:233
## Class :character Class :character Class :character
## Mode :character Mode :character Mode :character
##
##
##
Normalizando las variables
bajas_duracion_norm<-scale(rh_bajas2[2:3])
Elbow Plot
fviz_nbclust(bajas_duracion_norm, kmeans, method="wss")+
geom_vline(xintercept=5, linetype=2)+
labs(subtitle = "Elbow method")
Visualización información de clusters
duracion_cluster1<-kmeans(bajas_duracion_norm,5)
duracion_cluster1
## K-means clustering with 5 clusters of sizes 191, 10, 4, 27, 1
##
## Cluster means:
## duracion salario_diario
## 1 -0.23462767 0.1147221
## 2 1.49983327 -0.3729089
## 3 6.65505218 -0.3962566
## 4 0.02340506 -1.1243505
## 5 2.56340604 13.7596523
##
## Clustering vector:
## 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
## 5 4 4 4 4 4 4 4 4 2 4 4 1 1 2 4 4 4 4 4
## 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
## 4 3 4 4 1 1 1 1 1 1 1 1 1 1 1 1 4 2 1 1
## 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60
## 2 2 1 1 1 1 1 1 1 1 1 3 2 1 1 1 1 1 1 4
## 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80
## 1 1 1 1 1 1 1 2 2 4 1 1 1 1 1 1 1 1 1 1
## 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100
## 3 4 4 4 4 1 1 1 1 1 1 1 1 1 1 1 4 4 1 1
## 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120
## 1 1 1 1 1 1 1 3 1 1 1 1 1 1 1 1 1 1 1 1
## 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140
## 1 1 1 1 1 1 1 1 1 1 1 2 1 1 1 1 1 1 1 1
## 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160
## 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
## 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180
## 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
## 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200
## 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
## 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220
## 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 1 1
## 221 222 223 224 225 226 227 228 229 230 231 232 233
## 1 1 1 1 1 1 1 1 1 1 1 1 1
##
## Within cluster sum of squares by cluster:
## [1] 3.281687 6.437305 7.884909 1.648877 0.000000
## (between_SS / total_SS = 95.9 %)
##
## Available components:
##
## [1] "cluster" "centers" "totss" "withinss" "tot.withinss"
## [6] "betweenss" "size" "iter" "ifault"
Visualización clustering resultados
fviz_cluster(duracion_cluster1,data=bajas_duracion_norm)
Al observar vemos 5 clusters que toman en cuenta la duración y el salario:
Primero vemos nuestro cluster 1 (será llamado “Rehenes”) es un cluster que observamos que son personas que solo entran y salen muy pronto de la empresa (141 días) y tienen un salario diario que es arriba del promedio, alrededor de $180 pesos.
El cluster 2 (“Duraderos”) son los colaboradores que tienen una duración regular, pero que aun así no se encuentran satisfechos por lo que se salen de la empresa al rededor después de 1 año y medio (646 días) y su salario es de $169.
Como cluster 3 tenemos a los colaboradores que son leales a la empresa (“Resistentes”) es el segmento donde estuvo más de 4-5 años trabajando y cuentan con un salario de $168 pesos.
El cluster 4 (“Costosos”) es el cluster que nos cuesta a la empresa porque se invierte en capacitaciones para ellos y terminan saliendo de la empresa; son personas con un poco mas de duración pero no la suficiente (197 días) y su salario es de $151 por debajo promedio.
Por último tenemos el cluster 5 (“Extra”) que tuvo duración corto plazo con un salario muy alto ($500 pesos).
Nombrar a los clusters
rh_bajas3<-rh_bajas2
rh_bajas3$Clusters<-duracion_cluster1$cluster
rh_bajas4<-rh_bajas3 %>% group_by(Clusters) %>% dplyr::summarise(duracion=max(duracion)) %>% arrange(desc(duracion))
rh_bajas3$Cluster_Names<-factor(rh_bajas3$Clusters,levels = c(1,2,3,4,5),
labels=c("Rehenes", "Duraderos","Resistentes", "Costosos","Extra"))
Engrupar los clusters por nombre de clusters y resumir columnas
rh_bajas5<- rh_bajas3 %>% group_by(Cluster_Names) %>% dplyr::summarise(duracion_dias=max(duracion),
salario_diario=mean(salario_diario),
Count=n())
Formato tabla para información de los clusters
clusters<-as.data.frame(rh_bajas5)
clusters
## Cluster_Names duracion_dias salario_diario Count
## 1 Rehenes 141 180.6130 191
## 2 Duraderos 646 169.1990 10
## 3 Resistentes 1966 168.6525 4
## 4 Costosos 197 151.6100 27
## 5 Extra 628 500.0000 1
Gráfica con el numero de observaciones por nombres de clusters
ggplot(rh_bajas5,aes(x=reorder(Cluster_Names,Count),y=Count,fill=Cluster_Names)) +
geom_bar(stat="identity")
ggplot(rh_bajas5, aes(x=Cluster_Names,y=duracion_dias,fill= Cluster_Names,label=round(duracion_dias,digits=2))) +
geom_col() +
geom_text()
ggplot(rh_bajas5,aes(x=Cluster_Names,y=salario_diario,fill= Cluster_Names,label=round(salario_diario,digits=2))) +
geom_col() +
geom_text()
Estás ultimas gráficas nos muestran lo que se describió anteriorimente sobre que duración y salario tiene cada cluster y para concluir se mostrara cuantos colaboradores tiene cada cluster:
Total 233 * “Rehenes” tiene el segmento con más colaboradores y tiene un total de 191. En porcentaje se puede decir que es el 81.97% total de bajas.
“Costosos” esta en segundo lugar teniendo 27 colaboradores (11.57%).
“Duraderos” tercer lugar con un total de 10 colaboradores (4.29%).
“Resistentes” cuarto lugar con 4 colaboradores (1.71%).
Por último esta el “Extra” que fue solo un colaborador que se encuentra fuera de lo normal (0.43%).
Importar base de datos
bdr <-read.csv("/Users/georginamartinez/Documents/Tec/Séptimo Semestre/Analítica para negocios, de los datos a decisiones/Clsuteredadysalario.csv")
Analizar la estructura de la base de datos
str(bdr)
## 'data.frame': 233 obs. of 10 variables:
## $ nombre : chr "MARIO VALDEZ ORTIZ" "ISABEL BARRIOS MENDEZ" "MARIA ELIZABETH GOMEZ HERNANDEZ" "ALONDRA ABIGAIL ESCARCIA GOMEZ" ...
## $ edad : int 32 36 23 21 29 46 29 31 50 19 ...
## $ salario_diario: num 500 152 152 152 152 ...
## $ duracion : num 628 60 59 59 51 37 37 31 18 224 ...
## $ estado : chr "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" "Nuevo Leon" ...
## $ e.civil. : chr "Soltero" "Union libre" "Matrimonio" "Soltero" ...
## $ genero : chr "MASCULINO" "FEMENINO" "FEMENINO" "FEMENINO" ...
## $ alta : chr "09/03/20" "09/11/21" "10/11/21" "10/11/21" ...
## $ motivo_baja : chr "RENUNCIA VOLUNTARIA" "RENUNCIA VOLUNTARIA" "RENUNCIA VOLUNTARIA" "RENUNCIA VOLUNTARIA" ...
## $ puesto : chr "DISENO" "AYUDANTE GENERAL" "AYUDANTE GENERAL" "AYUDANTE GENERAL" ...
Cuantos Na´s hay por variable
sapply(bdr,function(x) sum(is.na(x)))
## nombre edad salario_diario duracion estado
## 0 0 0 0 0
## e.civil. genero alta motivo_baja puesto
## 0 0 0 0 0
Dejamos únicamente las variables cuantitativas
bdr2 <- bdr
bdr2<-subset(bdr2,select = -c(alta,estado,nombre))
summary(bdr2)
## edad salario_diario duracion e.civil.
## Min. :18.00 Min. :144.4 Min. : 0.00 Length:233
## 1st Qu.:23.00 1st Qu.:180.7 1st Qu.: 9.00 Class :character
## Median :29.00 Median :180.7 Median : 20.50 Mode :character
## Mean :30.77 Mean :177.9 Mean : 75.59
## 3rd Qu.:37.00 3rd Qu.:180.7 3rd Qu.: 47.00
## Max. :61.00 Max. :500.0 Max. :1966.00
## genero motivo_baja puesto
## Length:233 Length:233 Length:233
## Class :character Class :character Class :character
## Mode :character Mode :character Mode :character
##
##
##
Normalización de variables
bdr3 <- scale(bdr2[1:2])
Elbow plot
fviz_nbclust(bdr3, kmeans, method="wss")+
geom_vline(xintercept=4, linetype=2)+
labs(subtitle = "Elbow method")
Visualización de clusters
bdr4<-kmeans(bdr3,4)
bdr4
## K-means clustering with 4 clusters of sizes 1, 38, 76, 118
##
## Cluster means:
## edad salario_diario
## 1 0.1270769 13.759652253
## 2 1.7696042 -0.090629543
## 3 0.3483430 -0.003448058
## 4 -0.7953060 -0.085200655
##
## Clustering vector:
## 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
## 1 3 4 4 4 2 4 3 2 4 4 3 4 3 3 4 4 4 4 4
## 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
## 3 2 4 3 2 4 3 4 4 4 3 4 4 4 3 4 4 4 3 4
## 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60
## 4 3 4 4 4 4 4 4 2 2 3 2 4 2 4 4 2 4 4 4
## 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80
## 4 4 3 4 4 3 4 2 4 4 4 4 3 4 3 4 3 4 4 2
## 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100
## 4 4 2 4 4 4 3 4 4 4 3 3 2 4 4 4 2 3 4 3
## 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120
## 4 4 3 3 4 4 3 4 3 4 3 3 4 3 3 3 2 2 2 4
## 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140
## 4 4 4 4 3 4 3 2 4 3 4 2 4 4 4 3 2 3 2 3
## 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160
## 3 3 2 2 4 3 3 3 4 4 4 3 2 2 4 3 4 3 3 3
## 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180
## 2 2 3 2 4 4 3 4 4 2 3 2 4 2 3 3 2 3 3 4
## 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200
## 4 4 3 2 3 3 4 4 3 3 3 3 3 3 4 3 4 3 3 4
## 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220
## 3 2 3 4 4 4 2 4 4 4 3 3 4 4 3 3 3 2 4 4
## 221 222 223 224 225 226 227 228 229 230 231 232 233
## 3 4 4 4 4 2 3 2 4 4 4 4 4
##
## Within cluster sum of squares by cluster:
## [1] 0.00000 14.98451 20.97488 34.67145
## (between_SS / total_SS = 84.8 %)
##
## Available components:
##
## [1] "cluster" "centers" "totss" "withinss" "tot.withinss"
## [6] "betweenss" "size" "iter" "ifault"
fviz_cluster(bdr4,data=bdr3)
Vemos que el número óptimo de klusters para las variables edad y salario diario son 4 según el método de Elbow.
Como dato disparado y posible warning vemos que hay un trabajador con un salario diario de 500 pesos lo que podría resultar como un error, sin embargo los otros 3 grupos varían bastante en edad más no en salario pues el rango es muy cercano.
Cluster 1 El dato es único en el conteo con un trabajador de 32 años que tiene un salario diario de 500 pesos y es soltero. Su punto en el mapeo es único (color rojo).
Clsuter 2 Es el cluster con el registro de personas con mayor edad y cuentan con el salario diario más alto 183.68.
Cluster 3 Es el cluster con el registro de personas con edad promedio y salario de 180.68.
Cluster 4 Es el cluster con mayor registro de personas con edad jóven y salario de 182.68.
Nombrar a los clusters
bdr5<-bdr2
bdr5$Cluster <- bdr4$cluster
bdr6<-bdr5 %>% group_by(Cluster) %>% dplyr::summarise(salario_diario=max(salario_diario)) %>% arrange(desc(salario_diario))
bdr5$Cluster_Names<-factor(bdr5$Cluster,levels = c(1,2,3,4),
labels=c("Alto", "Medio","Bajo", "Regular"))
Agrupar clusters
bdr7<- bdr5 %>% group_by(Cluster_Names) %>% dplyr::summarise(salario_diario=max(salario_diario),
edad=mean(edad),
Count=n())
Tabla
clusters<-as.data.frame(bdr7)
clusters
## Cluster_Names salario_diario edad Count
## 1 Alto 500.00 32.00000 1
## 2 Medio 183.68 47.92105 38
## 3 Bajo 180.68 34.14474 76
## 4 Regular 182.68 23.05932 118
Gráficas
ggplot(bdr7,aes(x= reorder(Cluster_Names,Count),y=Count,fill=Cluster_Names)) +
geom_bar(stat="identity")
ggplot(bdr7, aes(x=Cluster_Names,y=edad,fill= Cluster_Names,label=round(edad,digits=2))) +
geom_col() +
geom_text()
ggplot(bdr7,aes(x=Cluster_Names,y=salario_diario,fill= Cluster_Names,label=round(salario_diario,digits=2))) +
geom_col() +
geom_text()
En la segunda gráfica el clúster azul es el que tiene mayor frecuencia con un promedio de edad de 48 años.
El cluster alto en la segunda grafica englobó en 22 años el count, sin embargo hay trabajadores con menor edad. Dicho cluster es el que tiene menos trabajadores dentro de Form.
En cuanto al salario en la tercera gráfica, el dato más alto es el que anteriormente se había mencionado como un dato único ($500) y vemos el comportamiento que se generaba en el mapeo de clusters donde los demás tienen una diferencia mínima siendo los resultados 182.68, 180.68 y 183.68.
El cluster que tiene una mayor frecuencia es el de 48 años de edad,
El cluster que mas chico es de 22 años o menos por lo que podemos decir que en Form, la mayoría son mayores de 23 años,
En cuanto al salario tienen un promedio de 180.68, pero existe un dato único el cual ganaba 500.
rh_bajas3$genero<-as.factor(rh_bajas3$genero)
rh_bajas3$puesto<-as.factor(rh_bajas3$puesto)
rh_bajas3$e.civil.<-as.factor(rh_bajas3$e.civil.)
bajas_new8<-bajas_new2%>% filter(Clusters==1 | Clusters==4) %>% arrange(Clusters)
ggplot(as.data.frame(bajas_new8),
aes(y=salario_diario, axis1=genero, axis2=e.civil.)) +
geom_alluvium(aes(fill=Cluster_Names), width = 1/12) +
geom_stratum(width = 1/12, fill = "black", color = "grey") +
geom_label(stat = "stratum", aes(label = after_stat(stratum))) +
scale_x_discrete(limits = c("Genero", "Estado Civil"), expand = c(.05, .05)) +
scale_fill_brewer(type = "qual", palette = "Set1") +
ggtitle("Salario Diario de Pasados Empleados de Form por Género y Estado Civil")
bajas_new9<-bajas_new6%>% filter(Clusters==1 | Clusters==5) %>% arrange(Clusters)
ggplot(as.data.frame(bajas_new9),
aes(y=salario_diario, axis1=genero, axis2=e.civil.)) +
geom_alluvium(aes(fill=Cluster_Names), width = 1/12) +
geom_stratum(width = 1/12, fill = "black", color = "grey") +
geom_label(stat = "stratum", aes(label = after_stat(stratum))) +
scale_x_discrete(limits = c("Genero", "Estado Civil"), expand = c(.05, .05)) +
scale_fill_brewer(type = "qual", palette = "Set1") +
ggtitle("Salario Diario de Pasados Empleados de Form por Género y Estado Civil")
bdr8<-bdr5%>% filter(Cluster==1 | Cluster==3) %>% arrange(Cluster)
ggplot(as.data.frame(bdr8),
aes(y=salario_diario, axis1=genero, axis2=e.civil.)) +
geom_alluvium(aes(fill=Cluster_Names), width = 1/12) +
geom_stratum(width = 1/12, fill = "black", color = "grey") +
geom_label(stat = "stratum", aes(label = after_stat(stratum))) +
scale_x_discrete(limits = c("Genero", "Estado Civil"), expand = c(.05, .05)) +
scale_fill_brewer(type = "qual", palette = "Set1") +
ggtitle("Salario Diario de Pasados Empleados de Form por Género y Estado Civil")
#### Relación entre Salario, Género y Motivo de baja
bdr8<-bdr5%>% filter(Cluster==1 | Cluster==3) %>% arrange(Cluster)
ggplot(as.data.frame(bdr8),
aes(y=salario_diario, axis1=genero, axis2=motivo_baja)) +
geom_alluvium(aes(fill=Cluster_Names), width = 1/12) +
geom_stratum(width = 1/12, fill = "black", color = "grey") +
geom_label(stat = "stratum", aes(label = after_stat(stratum))) +
scale_x_discrete(limits = c("Genero", "Estado Civil"), expand = c(.05, .05)) +
scale_fill_brewer(type = "qual", palette = "Set1") +
ggtitle("Salario Diario de Pasados Empleados de Form por Género y Motivo de baja")
rh_bajas6<-rh_bajas3 %>% filter(Clusters==4 | Clusters==3) %>% arrange(Clusters)
ggplot(as.data.frame(rh_bajas6),
aes(y=salario_diario, axis1=genero, axis2=e.civil.)) +
geom_alluvium(aes(fill=Cluster_Names), width = 1/12) +
geom_stratum(width = 1/12, fill = "black", color = "grey") +
geom_label(stat = "stratum", aes(label = after_stat(stratum))) +
scale_x_discrete(limits = c("Genero", "Estado Civil"), expand = c(.05, .05)) +
scale_fill_brewer(type = "qual", palette = "Set1") +
ggtitle("Salario Diario de Pasados Empleados de Form por Género y Estado Civil")
##### Clusters Bajas con género y estado civil
ggplot(rh_bajas3, aes(Cluster_Names, fill=factor(genero,levels=rev(levels(genero))))) +
geom_bar(position="dodge")+
scale_fill_discrete('Género')+
ggtitle("Género de Colaboradores por Cluster")
ggplot(rh_bajas3, aes(Cluster_Names, fill=factor(e.civil.,levels=rev(levels(e.civil.)))))+
geom_bar(position="dodge")+
scale_fill_discrete('Estado Civil')+
ggtitle("Estado Civil de Bajas por Cluster")
ggplot(rh_bajas3, mapping=aes(x=Cluster_Names, fill=puesto)) +
geom_bar(alpha = 1/5, position="identity")+
ggtitle("Puestos de Colaboradores por Cluster")
Hablando del área de Recursos humanos podemos encontrar que es necesario recompensar la antigüedad y crear planes de crecimiento para la gente (sobre todo a los jóvenes) para reducir las bajas ya que al realizar los clusters nos muestran que los jóvenes son los que duran menos tiempo en la empresa.
El tema por el que hay más bajas es por la razón de Faltas teniendo un 60% y en segundo lugar esta la Renuncia voluntaria con 36%. Se tiene que brindar atención porque capacitar a los empleados es algo costoso y se tiene una alta rotación.
Dentro de Producción nuestro top 3 clientes de producción son STABILUS 1, STABILUS 3 y TRMX.
En distrubución debemos prestar atención al cliente Mahle, su restraso es arriba del promedio llegando incluso a tiempos de 1 hora con 40 minutos y esto puede afectar la relación con el cliente y en la logística.
En delivery Plan destaca el cliente HELLA haciendo pedidos que llegan hasta más de 200,000.
En promedio se realizan entre 0 a 1000 pedidos, pero debemos de tener cuidado ya que también encontramos que se tienen sobrepedidos (arriba del promedio) llegando hasta 5,000 pedidos y esto puede afectar si no se tienen la capacidad para recibir pedidos de más.
Para captura de datos utilizar softwares que permitan el registro de datos de manera automatizada, ya que para la parte comercial se ve que las bases fueron hechas manuales y tienen datos faltantes o repetidos como el software MuleSoft.
Al realizar bases de datos darle un mejor formato donde la primera fila sean las variables y abajo los registros para un eficaz y mejor proceso de limpieza.
Agregar el tipo de producto a la base de datos de Scrap para encontrar cual es el que se tiene mayor cantidad y buscar una manera de disminuirlo.
Contar con una área de Inteligencia de Negocios y Analítica de Negocios con datas engineer que logren recolectar información y procesarla para la toma de decisiones.
El concepto de Business Analytics se puede definir como el proceso de utilizar información con distintos métodos para tomar mejores decisiones, que sean informadas y correctas dentro del mundo de negocios gracias al análisis que se realiza (Gavin, M., 2019). Existen 4 tipos de métodos:
Descriptivo: Crear tendencias y patrones con datos históricos.
Diagnóstico: Explica el por que de los sucesos utilizando igualmente datos históricos.
Predictivo: Poder gráficar y encontrar tendencias a través de pronósticos mediante estadísticas.
Prescriptivo: Precisar resultados para escenarios con mejores resultados trabajando con aplicación de pruebas y otras técnicas.
El BA ayuda a reconocer patrones de consumo que permiten segmentar sobre los hábitos y preferencias de compra, también encontrar área de oportunidad que nos digan si podemos mejorar la productividad y rendimiento.
Podemos decir que hablamos de Business Intelligence cuando se tiene la visión estratégica para transformar los activos en datos que ayuden a generar decisiones basadas en datos (Shen, E., 2020). Y para esto es importante que la herramienta que permite cumplir con esta visión tome en cuenta las funcionalidades que se tienen:
Acceder a todos los datos de todas las áreas y niveles de gradulado.
Obtener datos de manera rápida.
Poder compartir la información con los responsables de decisiones en lenguajes comúnes.
Para aprovechar al máximo el utilizar Business Intelligence, es importante considerar los siguientes pasos:
Conocer a los clientes y comprenderlos para poder desarrollar estrategias inteligentes que atiendan necesidades.
Contar con un solo canal de datos que permita la eficiencia y limpieza.
Modernizarse con las nuevas herramientas que tienen más capacidades de generar más inteligencia, como aprendizaje automático.
Siempre estar en constante supervisión y mejoras.
Business Intelligence lo que busca es comprender como se encuentra la empresa y como poder mejorar, utilizando datos históricos mediante un análisis descriptivo mientras que Business Analytics es explicar el porque de ciertos eventos, tendencias o patrones.
La información se genera por Business Analyticis y después un experto de Business Intelligence transforma esa información en resultados y gráficos.
Business Intelligence necesitan comprender lo que estan extrayendo y transformando, mientras que Business Analyticis tienen que tener capacidad para diseñar e implementar métodos que permitan la recolección de datos.
Son indicadores claves para lograr medir el desempeño dentro de una empresa y llegar al resultado deseado. Ayudan a crear un enfoque de que se quiere hacer y que estrategias utilizar para cumplir con estos indicadores y al ver como se va progresando modificar la estrategia, también nos permiten tomar mejores decisiones. Se necesitan establecer objetivos para después ponerles estos indicadores clave.
Fórmula= Cantidad de unidades producidas / Tiempo (horas o días)
Fórmula= Número actual (del mes) de empleados que renunciaron o se fueron / ((empleados al inicio de mes+ empleados al final de mes)/2) x 100
Fórmula= (Núm. de entregas a tiempo / Núm. total de entregas realizadas) x 100 # Referencias 1. Gavin, M. (2019, 16 julio). Business Analytics: What It Is & Why It’s Important | HBS Online. Business Insights Blog. Recuperado 21 de octubre de 2022, de https://online.hbs.edu/blog/post/importance-of-business-analytics
Shen, S. (2021, 15 diciembre). 6 Key Areas of Business Intelligence in the New Era. Medium. Recuperado 21 de octubre de 2022, de https://towardsdatascience.com/6-key-areas-of-business-intelligence-in-the-new-era-105fdc6f9350
Escobar, J. (2021, 26 octubre). Business Analytics vs Business Intelligence ¿cuál es la diferencia? Recuperado 21 de octubre de 2022, de https://blog.egade.tec.mx/business-analytics-vs-business-intelligence-diferencias
What is a Key Performance Indicator (KPI)? (s. f.). Recuperado 21 de octubre de 2022, de https://kpi.org/KPI-Basics