El 60% de las empresas de Chile son pymes (pequeñas y medianas empresas), y el 20% de todas las empresas venden al extranjero, esto es, son exportadoras. Si el 30% de las empresas exportadoras son pymes, ¿qué porcentaje de las pymes son exportadoras?
El enfoque más simple es con teoría de conjuntos.
Sean:
M = {Empresas pyme}
E = {Empresas exportadoras}
U = {Empresas de Chile (conjunto universo)}
Según el enunciado, sabemos que: \[\frac{|M|}{|U|} = 0.6\] \[\frac{|E|}{|U|} = 0.2\] \[\frac{|M \cap E|}{|E|} = 0.3\] Queremos saber el porcentaje de las pymes que son exportadoras, esto es, \(\frac{|M \cap E|}{|M|}\).
Multiplicamos el porcentaje conocido, \(\frac{|M \cap E|}{|E|}\), por los términos que corresponden para llegar a lo que queremos saber: \[\frac{|M \cap E|}{|E|} \cdot \frac{|E|}{|U|} \cdot \frac{|U|}{|M|} = \frac{|M \cap E|}{|M|}\] Los tres términos de la izquierda son conocidos: \[\therefore 0.3 \cdot 0.2 \cdot \frac{1}{0.6} = \frac{|M \cap E|}{|M|}\] \[\therefore \frac{|M \cap E|}{|M|} = 0.1\]
Un problema expresado como porcentaje: porcentaje de A que es B, es equivalente a la probabilidad condicional: B dado A.
Sean:
M = Evento que una empresas sea pyme
E = Evento que una empresa sea exportadora
Por el enunciado, sabemos que: \[P(M) = 0.6\] \[P(E) = 0.2\] \[P(M|E) = 0.3\] Queremos saber la probabilidad de que una empresa es exportadora dado que es pyme, esto es, \(P(E|M)\).
Queremos saber una probabilidad condicional, y sabemos la probabilidad condicional inversa: \(P(M|E)\). Entonces aplicamos el teorema de Bayes: \[P(E|M) = \frac{P(M|E) \cdot P(E)}{P(M)}\] \[\therefore P(E|M) = \frac{0.3 \cdot 0.2}{0.6}\] \[\therefore P(E|M) = 0.1\]
Un dado no simétrico tiene la siguiente función de masa de probabilidad: \[p(1) = 0.3,\ p(2) = p(3) = 0.2,\ p(4) = p(5) = p(6) = 0.1\]
\[E(X) := \sum_{i=1}^6 p_X(x_i)x_i\] \[\therefore E(X) = 0.3 \cdot 1 + 0.2 \cdot 2 + 0.2 \cdot 3 + 0.1 \cdot 4 + 0.1 \cdot 5 + 0.1 \cdot 6\]
x = 1:6
p = c(3, 2, 2, 1, 1, 1)/10
ex = sum(p*x)
ex
## [1] 2.8
\[\therefore E(X) = 2.8\]
s2x = sum(p*(x-ex)^2)
s2x
## [1] 2.76
\[\therefore var(X) = 2.76\]
Una variable aleatoria continua tiene la siguiente función de distribución acumulada: \[F(x) = \frac{1}{1 + e^{-x}}\]
library(ggplot2)
x = seq(-10, 10, 0.1)
Fx = 1/(1 + exp(-x))
ggplot(mapping = aes(y=Fx, x=x)) + geom_line(color="blue") +
geom_hline(yintercept = 0) + geom_vline(xintercept = 0) +
xlab("X") + ylab("F(x)") + annotate(geom="text", label="F(x)", x=5, y=0.95, color="blue")
1/(1+exp(-2)) - 1/(1+exp(0))
## [1] 0.3807971
\[\therefore P(0 \le X \le 2) = 0.3808\]
\[f(x) = F'(x)\] Derivamos aplicando la regla de la cadena: \[f(x) = -\frac{1}{(1 + e^{-x})^2}(-e^{-x})\] \[\therefore f(x) = \frac{e^{-x}}{(1 + e^{-x})^2}\]
x = seq(-10, 10, 0.1)
Fx = 1/(1 + exp(-x))
fx = exp(-x)/(1 + exp(-x))^2
ggplot(mapping = aes(y=Fx, x=x)) + geom_line(color="blue") + geom_line(mapping = aes(y=fx), color="red") +
geom_hline(yintercept = 0) + geom_vline(xintercept = 0) +
xlab("X") + ylab("F(x), f(x)") +
annotate(geom="text", label="F(x)", x=5, y=0.95, color="blue") +
annotate(geom="text", label="f(x)", x=2, y=0.2, color="red")
A partir de las definiciones, demuestra las reglas de la esperanza:
donde X es una variable aleatoria y c es una constante.
La constante c es una variable aleatoria de un solo valor (c) y por el segundo axioma de la teoría de la probabilidad, su función de masa de probabilidad es: \[p(c) = 1\] Entonces su esperanza es, por definición: \[E(c) = p(c) \cdot c = 1 \cdot c = c\] Q.E.D.
Al multiplicar a la variable X por c, se genera una nueva variable: cX. Sea Y esta variable: \[Y = cX\]
Los valores de Y son: \[Y = \{cx_1, cx_2,...cx_n\}\] La función de masa de probabilidad de Y es: \[p_{Y}(cx) = P(Y=cx) = P(cX=cx) = P(X=x) = p_X(x)\] Por definición: \[E(Y) = \sum_{i=1}^n p_Y(cx_i)cx_i\] \[\therefore E(Y) = \sum_{i=1}^n p_X(x_i)cx_i\] \[\therefore E(Y) = c\sum_{i=1}^n p_X(x_i)x_i\] \[\therefore E(Y) = cE(X)\] Q.E.D.
La función de distribución acumulada (FDA) es: \[F_Y(y) = P(Y \le y) = P(cX \le y) = P\left(X \le \frac{y}{c}\right) = F_X\left(\frac{y}{c}\right)\] Y la función de densidad de probabilidad de Y es la derivada de \(F_Y\): \[f_Y(y) = F_Y'(y)\] \[\therefore f_Y(y) = \frac{dF_X\left(\frac{y}{c}\right)}{dy}\] \[\therefore f_Y(y) = \frac{1}{c} f_X(x)\] Y la esperanza de Y está dada por: \[E(Y) = \int_{-\infty}^{\infty}f_Y(y)y\ dy\] \[E(Y) = \int_{-\infty}^{\infty}\frac{1}{c} f_X(x)y\ dy\] Integrar por sustitución. Sabemos que \(y = cx\): \[\therefore dy = cdx\] \[\therefore E(Y) = \int_{-\infty}^{\infty}\frac{1}{c} f_X(x)cx\ cdx\] \[\therefore E(Y) = \int_{-\infty}^{\infty} cf_X(x)x\ dx\] \[\therefore E(Y) = c \int_{-\infty}^{\infty} f_X(x)x\ dx\] \[\therefore E(Y) = c E(X)\] Q.E.D.
La esperanza de X + Y es: \[E(X+Y) = \sum_{i=1}^n \sum_{j=1}^n p_{XY}(x_i, y_j)(x_i + y_j)\] donde \(p_{XY}(x_i, y_j)\) es la función de masa de probabilidad conjunta de X y Y. \[\therefore E(X+Y) = \sum_{i=1}^n \sum_{j=1}^n p_{XY}(x_i, y_j)x_i + \sum_{i=1}^n \sum_{j=1}^n p_{XY}(x_i, y_j)y_j\] \[\therefore E(X+Y) = \sum_{i=1}^n x_i\sum_{j=1}^n p_{XY}(x_i, y_j) + \sum_{j=1}^n y_j\sum_{i=1}^n p_{XY}(x_i, y_j)\] Por las reglas de la probabilidad marginal: \(\sum_{j=1}^n p_{XY}(x_i, y_j) = p_X(x_i)\) y \(\sum_{i=1}^n p_{XY}(x_i, y_j) = p_Y(y_j)\): \[\therefore E(X+Y) = \sum_{i=1}^n x_ip_X(x_i) + \sum_{j=1}^n y_jp_Y(y_j)\] \[\therefore E(X+Y) = E(X) + E(Y)\] Q.E.D.
Para X e Y continuas, la esperanza de X + Y es: \[E(X+Y) = \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} f_{XY}(x, y)(x + y)\ dxdy\] donde \(f_{XY}(x,y)\) es la función de densidad conjunta de X e Y. \[\therefore E(X+Y) = \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} f_{XY}(x, y)x\ dxdy + \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} f_{XY}(x, y)y\ dxdy\] \[\therefore E(X+Y) = \int_{-\infty}^{\infty} x\int_{-\infty}^{\infty} f_{XY}(x, y)\ dydx + \int_{-\infty}^{\infty} y\int_{-\infty}^{\infty} f_{XY}(x, y)\ dxdy\] Por la regla de la probabilidad marginal: \[\therefore E(X+Y) = \int_{-\infty}^{\infty} x f_X(x)\ dx + \int_{-\infty}^{\infty} yf_Y(y)\ dy\] \[\therefore E(X+Y) = E(X) + E(Y)\] Q.E.D.
Demuestra lo siguiente: \[E(X^2) = var(X) + E(X)^2\]
Partimos de la definición de la varianza: \[var(X) := E([X-E(X)]^2)\] \[\therefore var(X) = E(X^2 - 2XE(X) + E(X)^2)\] \[\therefore var(X) = E(X^2) - E(2XE(X)) + E(E(X)^2)\] \[\therefore var(X) = E(X^2) - 2E(X)E(X) + E(X)^2\] \[\therefore var(X) = E(X^2) - E(X)^2\] \[\therefore E(X^2) = var(X) + E(X)^2\] Q.E.D.
Una línea aérea tiene la problemática de siempre llenar sus vuelos. Si en un vuelo hay asientos vacíos (sin vender) la línea aérea pierde dinero. Es por eso que a los pocos días antes de un vuelo las aerolíneas venden los últimos asientos disponibles a un descuento, para intentar venderlos todos y minimizar la pérdida.
Estás a cargo de la operación de marketing de una línea aérea. 4 días antes de un vuelo, te quedan 16 asientos desocupados. Sabes por la experiencia que solamente el 80% de los pasajeros que compran un pasaje llegan al aeropuerto para tomar el vuelo; el 20% restante no llega y después cambian su pasaje para otro día.
Si vendes 20 pasajes, ¿cuál es la probabilidad de que el vuelo quede sobrevendido, o que haya asientos vacíos?
Cada pasaje vendido puede ser modelado con una variable aleatoria Bernoulli, donde 1 significa que el pasajero llega (éxito) y 0 significa que el pasajero no llega (fracaso). Como sabemos por la experiencia que el 80% de los pasajeros llegan, entonces p=0.8. Por lo tanto, los 20 pasajes vendidos se pueden modelar con una distribución binomial, con n=20, p=0.8, y el número de éxitos, x, es el número de pasajeros que llegan al aeropuerto.
Sea \[X \sim Bin(n,p)\] \[con\ n=20\ y\ p=0.8\]
Si la cantidad de pasajeros que llega es distinto al número de asientos disponibles (x=16), el vuelo quedará o sobrevendido o habrá asientos vacíos. Entonces nos interesa la probabilidad: \[P = P(X \ne 16)\] \[\therefore P = 1 - P(X = 16)\] \(P(X = 16)\) está dada por la función de masa de probabilidad de la distribución binomial: \[\therefore P = 1 - p_X(16)\] \[\therefore P = 1 - {n \choose x}p^x(1-p)^{n-x}\] \[\therefore P = 1 - {20 \choose 16}0.8^{16}(1-0.8)^{20-16}\]
n=20
p=0.8
x=16
P = 1 - choose(n,x)*p^x*(1-p)^(n-x)
P
## [1] 0.7818006
\[\therefore P = 0.7818\]