Estas notas están elaboradas a partir de los apuntes de la materia “Probabilidad I”, cursada durante el semestre Enero a Mayo de 1998 en el ITAM.
Del diccionario de la academia de la lengua española:
adj. Que tiene apariencia de verdadero.
adj. Creíble por no ofrecer carácter alguno de falsedad.
adj. Que depende del azar (‖ casualidad). Un proceso aleatorio.
adj. Perteneciente o relativo al juego de azar.
La teoría de la probabilidad es la ciencia de la incertidumbre, esto es, es la rama de las matemáticas que estudia a los objetos matemáticos que nos permiten analizar y describir nuestra ignorancia. La teoría de la probabilidad, por lo tanto, nos proporciona el marco conceptual para trabajar con nuestro conocimiento limitado y para poder tomar decisiones con base en lo que sabemos y lo que no sabemos (Evans and Rosenthal (2023)).
Aunque todos tenemos una noción de a qué cosa nos referimos cuando hablamos de la probabilidad, la realidad es que no existe una única definición universalmente aceptada en términos científicos. En general, se puede afirmar que existen tres grandes perspectivas desde las cuales típicamente se define lo que entendemos por probabilidad (DeGroot 1988):
Pensemos en el ejemplo de un “volado”: es posible argumentar que existen únicamente dos resultados igualmente posibles (suponiendo una moneda y un lanzador “justos”): “águila” o “sol”, por lo que diremos que son igualmente probables.
En el ejemplo del “volado”: una observación es una muy mala aproximación a la probabilidad de obtener “águila” o “sol”; dos, probablemente también. ¿Cuántos volados necesitamos? Si realizamos una cantidad suficiente de volados seguramente se obtendrá una proporción cada vez más cercana a \(\frac{1}{2}\)
En el ejemplo del volado, nuevamente, podríamos argumentar contar con información sobre las características de la moneda, o bien que conocemos a la persona que hace los lanzamientos, por lo que podemos suponer que los resultados no son igualmente probables. Esta es, desde luego, nuestra probabilidad porque contamos con información que otras personas no tienen.
Cada una de estas perspectivas puede sernos útil, dependiendo del problema que intentemos resolver, pero también es importante observar que son posturas complementarias y, frecuentemente, puede observase que las conclusiones a las que se llega son las mismas, independientemente de qué postura adoptemos respecto de la probabilidad.
La Teoría de la Probabilidad busca desarrollar las herramientas para describir la incertidumbre en términos de modelos probabilísticos. En probabilidad, llamamos experimento a cualquier proceso cuyos resultados no se conocen de antemano con certeza (DeGroot 1988). Matemáticamente, el trabajo a realizar en la teoría de la probabilidad está fundamentalmente enfocado a dos grandes problemas:
Determinar las probabilidades de ciertos sucesos a partir de las probabilidades especificadas para cada uno de los posibles resultados de un experimento;
Métodos para revisar las probabilidades de los sucesos una vez que contamos con información o evidencia nueva o adicional.
Más adelante definiremos matemáticamente lo que entenderemos por probabilidad, aunque para poder hacerlo necesitamos retomar algunos elementos de teoría de conjuntos.
El estudio de la teoría de la probabilidad comenzó a mediados del s. XVII con la aplicación de métodos matemáticos a problemas de juego (apuestas) por parte de Blaise Pascal y Pierre de Fermat.
El estudio matemático moderno de la probabilidad surge en los 1920’s principalmente a partir del trabajo de matemáticos como Ronald Aylmer Fisher (cuyo nombre hoy a caído un tanto en desgracia por sus posturas raciales y eugenéticas), Norbert Wiener, William Feller, Joe Doob y Richard von Mises. Sin embargo, la teoría de la probabilidad recibió un muy fuerte impulso por parte de matemáticos rusos de la época, como Andrey Kolmogorov, Andrei Andreyevich Markov y Pafnuty L. Chebyshev.
Durante la mayor parte de la historia de las matemáticas el estudio de la probabilidad fue considerado como un esfuerzo despreciable por tratarse de una aplicación menor del conocimiento matemático (esta visión prevaleció en algunas escuelas hasta bien entrado el siglo XX).
Los modelos probabilísticos, en general, van a buscar asignar o describir las probabilidades asociadas a colecciones de posibles resultados. Al estudiar la probabilidad se hace, por lo tanto, frecuentemente uso de operaciones sobre conjuntos.
Un conjunto se una colección de objetos (los cuales son los elementos del conjunto). Si \(S\) es un conjunto y \(x\) es un elemento de \(S\), utilizamos la notación \(x \in S\). Por otra parte si \(x\) no es un elemento de \(S\), lo denotamos como \(x \notin S\). Un conjunto puede no contar con ningún elemento, en cuyo caso es llamado el conjunto vacío y lo denotamos con el símbolo \(\emptyset\).
Si \(S\) contiene un número finito o infinito de elementos que pueden ser listados, lo denotamos como \(S = \{ x_1, \dots, x_n \}\), o bien, \(S = \{ x_1, x_2, \dots \}\), según corresponda.
Alternativamente, podemos describir al conjunto por las propiedades que lo definen: \(S = \{ x|x \space \text{satisface} \space P \}\).
Conjuntos contables vs incontables
Subconjuntos: si cada elemento del conjunto \(S\) es también un elemento del conjunto \(T\), decimos que \(S\) es un subconjunto de \(T\) o, en notación, \(S \subset T\). Por otra parte, decimos que dos conjuntos son iguales si \(S \subset T\) y \(T \subset S\).
Conjunto universal: llamamos conjunto universal (típicamente denotado como \(\Omega\)) al conjunto que contiene todos los objetos que podrían concebirse como de interés dentro de un contexto en particular. Se sigue entonces que, dentro de ese contexto \(S \subset \Omega \space \forall \space S\).
Complemento: el complemento de un conjunto \(S\), con respecto a un universo \(\Omega\), es el conjunto \(S^c = \{ x \in \Omega | x \notin S \}\). Por definición \(\Omega^c = \emptyset\).
Unión: la unión de dos conjuntos \(S\) y \(T\) corresponde a todos los elementos de \(\Omega\) que pertenecen a \(S\) o a \(T\) (o ambos): \(S \cup T = \{ x|x \in S \space or \space x \in T \}\).
Intersección: la intersección de dos conjuntos \(S\) y \(T\) es el conjunto de elementos que pertenecen a ambos, \(S\) y \(T\): \(S \cap T = \{ x|x \in S \space and \space x \in T \}\). Cuando \(S \cap T = \emptyset\) decimos que \(S\) y \(T\) son disjuntos.
Partición: decimos que una colección de conjuntos forman una partición del conjunto \(S\) si son disjuntos y su unión es igual a \(S\).
Algunas propiedades de las operaciones con conjuntos:
\(S \cup T = T \cup S\)
\(S \cap (T \cup U) = (S \cap T) \cup (S \cap U)\)
\((S^c)^c = S\)
\(S \cup \Omega = \Omega\)
\(S \cup (T \cup U) = (S \cup T) \cup U\)
\(S \cup (T \cap U) = (S \cup T) \cap (S \cup U)\)
\(S \cap S^c = \emptyset\)
\(S \cap \Omega = S\)
Leyes de De Morgan:
\(\left( \bigcup\limits_{n} S_n \right)^c = \bigcap\limits_n S_{n}^c\)
\(\left( \bigcap\limits_{n} S_n \right)^c = \bigcup\limits_n S_{n}^c\)
Una primera definición a la que generalmente se llega cuando pensamos en probabilidades consiste en definir la probabilidad asociada a un evento como el conteo del número de maneras en las que ese evento puede suceder dividido entre el número total de posibles resultados del experimento (cardinalidad del espacio muestral). Se le llama a esta definición la definición simple o naïve de probabilidad (Blitzstein and Hwang 2014) porque es restrictiva y se basa en supuestos muy fuertes (p.e., supone que los posibles resultados del experimento constituyen un conjunto finito contable). Siguiendo esta definición, si \(A\) es el conjunto que representa al evento y \(\Omega\) al conjunto de todos los posibles resultados del experimento, entonces:
\[P_{naive}(A) = \frac{|A|}{|\Omega|}.\]
Otra interpretación del concepto de probabilidad puede emanar de una visión subjetiva de la probabilidad. Esto es, interpretar la probabilidad como la verosimilitud que cada persona asigna a la obtención de un determinado resultado en un experimento. Esta interpretación, sin embargo, puede también dar pie a otro tipo de problemas.
En cualquier caso, puede establecerse una definición de probabilidad, desde un punto de vista matemático que, independientemente de la interpretación que hagamos de ella, nos permita desarrollar la teoría necesaria para el análisis de sus propiedades.
\(P(A) \geq 0 \ \forall A \in \Omega;\)
\(P(\Omega) = 1;\)
Si \(A_1, A_2, \dots\) son eventos tales que \(A_i \cap A_j = \emptyset \ \forall \ i \neq j\) entonces \(P(\bigcup\limits_{i=1}^{\infty} A_i) = \sum\limits_{i = 1}^{\infty} P(A_i)\).
Sin embargo, observemos que \(\bigcup\limits_{i = 1}^\infty A_i = \bigcup\limits_{i = 1}^\infty \emptyset = \emptyset\) entonces \(P(A) = P(\emptyset) = \sum\limits_{i = 1}^\infty P(A_i) = \sum\limits_{i = 1}^\infty P(\emptyset)\). El único número perteneciente a los reales cuya suma es igual a si mismo es el cero, entonces:
\[P(A) = P(\emptyset) = 0\]
\[P\left(\bigcup\limits_{i=1}^{n} A_i\right) = P\left(\bigcup\limits_{i=1}^{\infty} A_i\right)\]
donde \(A_i = \emptyset \ \forall \ i > n\). Entonces:
\[P\left(\bigcup\limits_{i=1}^{n} A_i\right) = \sum\limits_{i = 1}^\infty P(A_i)\]
\[= \sum\limits_{i = 1}^n P(A_i) + \sum\limits_{i = n+1}^\infty P(A_i)\]
\[= \sum\limits_{i = 1}^n P(A_i)\]
\[A \cup B = (A \cap B^c) \cup (A^c \cap B) \cup (A \cap B)\]
\[P(A \cup B) = P(A \cap B^c) + P(A^c \cap B) + P(A \cap B)\]
pero
\[A = (A \cap B^c) \cup(A \cap B) \Rightarrow\]
\[P(A \cap B^c) = P(A) - P(A \cap B)\]
entonces
\[P(A \cup B) = P(A) - P(A \cap B) + P(B) - P(A \cap B) + P(A \cap B)\]
\[= P(A) + P(B) - P(A \cap B).\]
\[A \subseteq B \Rightarrow B = A \cup (B \cap A^c)\]
\[A \cap (B \cap A^c) = \emptyset \Rightarrow\]
\[P(B) = P(A) + P(B \cap A^c)\]
\[P(A) = P(B) - P(B \cap A^c)\]
pero
\[P(B \cap A^c) \geq 0 \ \ \ \text{por el axioma 1}\]
entonces
\[P(A) \leq P(B).\]
\[P(\Omega) = P(A \cup A^c)\]
\[= P(A) + P(A^c) \ \ \ \text{Por el axioma 3.}\]
Entonces:
\[1 = P(\Omega) = P(A) + P(A^c)\]
\[P(A^c) = 1 - P(A).\]
Un caso que resulta de particular interés distinguir es aquél en el que se tienen dos eventos, \(A\) y \(B\), en los que la ocurrencia o no ocurrencia de alguno de ellos no tiene impacto o influencia en la ocurrencia del otro. Decimos en este caso que se trata de eventos independientes.
Matemáticamente:
La intuición de esta definición puede derivarse de la idea de que si tenemos dos eventos cuya ocurrencia no depende del otro evento la probabilidad de ocurrencia de ambos en forma simultánea (la intersección) será igual a la frecuencia relativa de ocurrencia de uno multiplicada por la frecuencia relativa de ocurrencia del otro (desde un punto de vista muy frecuentista de la probabilidad).
\[ \begin{aligned} P[A] &= P[(A \cap B) \cup (A \cap B^c)]\\ &= P[A \cap B] + P[A \cap B^c]\\ P[A \cap B^c] &= P[A] - P[A \cap B]\\ &= P[A] - P[A]P[B]\\ &= P[A](1 - P[B])\\ &= P[A]P[B^c]. \end{aligned} \]
Se puede extender la idea de independencia entre dos eventos a un número de eventos mayor a dos. Es decir, se dice que los eventos \(A_1, A_2, \dots, A_n\) son independientes si para cada subconjunto \(A_{i_1}, A_{i_2}, \dots, A_{i_j}\) y \(j = 2, 3, \dots, n\), se cumple que
\[ P[A_{i_1} \cap A_{i_2} \cap \dots \cap A_{i_j}] = P[A_{i_1}]P[A_{i_2}] \dots P[A_{i_j}]. \]
La placa no tenga vocales
Tenga solo dígitos pares
Ambas
Tenga dígitos y letras consecutivas
Solución :
En total, se cuenta con 26 letras y 10 dígitos para generar las placas por lo que la cardinalidad del espacio muestral es de \(10^3 \times 26^3 = 17,576,000\).
Si E = {Que no tenga vocales}, entonces \(P(E) = \frac{10^3 \times 21^3}{10^3 \times 26^3} = \left( \frac{21}{26} \right)^3\).
Si E = {Que tenga solo dígitos pares}, entonces \(P(E) = \frac{5^3 \times 26^3}{10^3 \times 26^3} = \left( \frac{1}{2} \right)^3 = 0.125\).
Si E = {Que no tenga vocales \(\wedge\) Que tenga solo dígitos pares}, entonces \(P(E) = \frac{5^3 \times 21^3}{10^3 \times 26^3} = \left( \frac{21}{52} \right)^3\).
Si E = {Que tenga números y letras consecutivas}, entonces \(P(E) = \frac{8 \times 24}{10^3 \times 26^3}\).
Abra al primer intento.
Abra al segundo intento.
Abra al tercer intento.
Abra al k-ésimo intento, sin reemplazo.
Abra al k-ésimo intento, con reemplazo.
\(P(E) = \frac{1}{10}\)
\(P(E) = \frac{9}{10} \times \frac{1}{9} = \frac{1}{10}\)
\(P(E) = \frac{9}{10} \times \frac{8}{9} \times \frac{1}{8} = \frac{1}{10}\)
\(P(E) = \frac{9}{10} \times \dots \times \frac{10 - k}{10 - (k - 1)} \times \frac{1}{10 - k} = \frac{1}{10}\), \(k < 10\).
\(P(E) = \left( \frac{9}{10} \right)^{k-1} \times \frac{1}{10} = \frac{9^{k-1}}{10^k}\)
\[P(E) = 1 - P(E^c)\]
donde \(E^c\) = {Que todos tengan cumpleaños diferentes}. Entonces:
\[P(E^c) = 1 \times \frac{364}{365} \times \frac{363}{365} \times \frac{362}{365} \times \frac{361}{365} \times \frac{360}{365}\]
\[= 0.9595375.\]
Entonces
\[P(E) = 0.04046248.\]
Ahora, si se trata de un grupo de \(n\) personas, entonces:
\[P(E^c) = \frac{365}{365} \times \frac{364}{365} \times \dots \times \frac{365 - n + 1}{365} \ \ \ n \leq 365\]
\[= \frac{365!}{(365-n)!365^n}\]
y entonces
\[P(E) = 1 - \frac{365!}{(365-n)!365^n}.\]
\[|\Omega| = 10 \times 9 \times \dots \times 1 = 10!.\]
El primer evento es E = {Que I y II estén a tres posiciones de distancia}. Esto solamente es posible si I o II se encuentran en la posición 1 a 7 y el otro de la 4 a la 10, es decir, las posiciones: (1,4), (2,5), (3,6), (4,7), (5,8), (6,8), (7,10), (4,1), (5,2), (6,3), (7,4), (8,5), (9,6), (10,7). Entonces
\[P(E) = \frac{14 \times 8!}{10!} = \frac{14}{10 \times 9} = \frac{7}{45}.\]
Ahora, si E = {Que I esté antes que II}, si I está en la primera posición, II puede estar en cualquiera de las otras 9; si I está en la segunda, II puede estar en cualquiera de las otras 8; así sucesivamente. Por lo tanto, se tienen 9 + 8 + 7 + … + 1 diferentes posiciones posibles de I y II. Cada una de estas posiciones da lugar a 8! diferentes posiciones de las otras personas. Por lo tanto:
\[P(E) = \frac{(9 + 8 + 7 + \dots + 1) \times 8!}{10!} = \frac{45}{90} = \frac{1}{2}.\] Finalmente, si E = {Que estén consecutivos I y luego II} da lugar a 9 posiciones diferentes de I y II, y cada posición representa 8! diferentes formaciones de las otras personas, entonces:
\[P(E) = \frac{9 \times 8!}{10!} = \frac{1}{10}\]
\[P(E) = \frac{\pi \times 1^2}{2^2} = \frac{\pi}{4}.\]
Ahora, dado que se trata del cuadrado inscrito en el círculo unitario, sus lados deben medir \(\sqrt{2}\) por lo que
\[P(E) = \frac{\sqrt{2}^2}{\pi \times 1^2} = \frac{2}{\pi}.\]
Aparezca el número 123.
No salga el 3.
Salgan tres dígitos consecutivos.
Salga al menos un número par.
Salga un número con 2.
\(P(E) = \frac{1}{5} \times \frac{1}{4} \times \frac{1}{3} = \frac{1}{60}.\)
\(P(E) = \frac{4}{5} \times \frac{3}{4} \times \frac{2}{3} = \frac{2}{5}.\)
\(P(E) = \frac{2 \times 3}{5} \times \frac{1}{4} \times \frac{1}{3} = \frac{1}{10}\), considerando que los dígitos consecutivos pueden presentarse en orden ascendente o descendente.
Para contar las combinaciones que forma el evento comencemos por considerar todas las combinaciones que inician con 2: son en total \(1 \times 4 \times 3 = 12\). Si consideramos a las que tienen al 2 como segundo número y como tercer número, entonces, tenemos en total \(3 \times 12 = 36\) combinaciones que incluyen al número 2. Por otra parte, tenemos igual número de combinaciones que incluyen al 4 (los únicos números pares de nuestro espacio muestral).
Pero, observemos que dentro de las combinaciones que incluyen al 4, algunas incluyen al 2, por lo que ya fueron contadas, por lo que las tenemos que restar. En total, las combinaciones que incluyen tanto al 2 como al 4 son 18.
Entonces, \(P(E) = \frac{2 \times (3 \times 4 \times 3) - 18}{60} = \frac{54}{60} = \frac{9}{10}.\)
\[P(E) = \frac{5^8}{6^8}\]
ya que, en el evento, cada pelota puede caer únicamente en 5 de las 6 cajas.
36 regiones de área 1.
25 regiones de área 4.
16 regiones de área 9.
9 regiones de área 16.
4 regiones de área 25.
1 región de área 36.
Entonces: \(P(E) = \frac{36+25+16}{36+25+16+9+4+1} = \frac{77}{91}\).
Primera ronda: hay 137 jugadores, dado que se trata de un número impar, 1 pasa en automático y se juegan \(136 / 2 = 68\) partidos.
Segunda ronda: hay \(68 + 1\) jugadores. 69 es impar por lo que uno pasa en automático y se juegan \(68/2=34\) partidos.
Tercera ronda: hay \(34 + 1\) jugadores. 35 es impar por lo que uno pasa en automático y se juegan \(34/2 = 17\) partidos.
Cuarta ronda: hay \(17+1\) jugadores. Se juegan 9 partidos.
Quinta ronda: hay 9 jugadores. 9 es impar por lo que uno pasa en automático y se juegan \(8/2 = 4\) partidos.
Sexta ronda: hay \(4+1\) jugadores. 5 es impar por lo que uno pasa en automático y se juegan \(4/2 = 2\) partidos.
Séptima ronda: Hay \(2+1\) jugadores. 3 es impar por lo que uno pasa en automático y se juega 1 partido.
Octava ronda: final.
En total, entonces, se requieren: \(68+34+17+9++4+2+1+1 = 136\) partidos.
Si trazamos una linea paralela a los extremos de la tabla que pase por el punto \(x\), entonces podemos observar también que la aguja forma un ángulo \(\theta\) con esta línea paralela.
Nuestro espacio muestral consiste entonces en todas las posiciones en las que puede caer la aguja en la tabla, es decir, \(a \times \pi\) (todas las posiciones en las que puede caer su extremo inferior multiplicadas por todas las posiciones del ángulo).
Ahora, para poder definir nuestro evento, observemos que la aguja cortará el borde superior de la tabla únicamente si la altura de la aguja respecto de la paralela es mayor que la distancia de \(x\) al borde superior de la tabla, es decir, si \(a - x < l \sin \theta\) o \(a - l \sin \theta < x < a\).
Por lo tanto:
\[P(E) = \frac{\int\limits_{0}^{\pi} \int\limits_{a - l \sin \theta}^a dxd\theta}{a \pi}\]
\[= \frac{\int\limits_{0}^{\pi} a - (a - l \sin \theta) d\theta}{a \pi}\]
\[= \frac{\int\limits_{0}^{\pi} l \sin \theta d\theta}{a \pi}\]
\[= \frac{\left. -l \cos \theta \right|_{0}^{\pi}}{a \pi}\]
\[= \frac{l \cos 0 - l \cos \pi}{a \pi}\]
\[= \frac{2l}{a \pi}.\]
Pensemos en el evento de que no se encuentren. Si A llega antes que B, no se encuentran si \(t_A + 20 < t_B, \ 0 < t_A < 120, \ 0 < t_B < 120\). Entonces, la probabilidad de que no se encuentren, cuando A llega antes que B, es igual a:
\[P_1 = \frac{\int\limits_{20}^{120}\int\limits_{0}^{t_B - 20} dt_Adt_B}{120^2}\]
\[= \frac{\int\limits_{20}^{120}(t_B - 20) dt_Adt_B}{120^2}\]
\[= \frac{(\frac{1}{2} t_B^2 - 20t_B)|_{20}^{120}}{120^2}\]
\[= \frac{(\frac{120^2}{2} - 20 \times 120 - \frac{20^2}{2} + 20 \times 20)}{120^2}\]
\[= \frac{25}{72}.\]
Para obtener la probabilidad total de que no se encuentren, entonces, tenemos que considerar el caso en el que B llega antes que A, por lo que probabilidad total de que no se encuentren es igual a:
\[P_2 = 2 \times \frac{25}{72} = \frac{50}{72}.\]
La probabilidad de que se encuentren será, entonces, el complemento:
\[P(E) = 1 - \frac{50}{72} = \frac{22}{72} = \frac{11}{36}.\]
El evento de que sean 2 subconjuntos ajenos es de cardinalidad: 13
Entonces
\[P(E) = \frac{13}{28}.\]
Ahora, para la cardinalidad del evento, consideremos que el primer número puede ser cualquiera de los \(n\) números. Para el segundo número, veamos:
Si \(n_1 = 1\), se tienen cero casos.
Si \(n_1 = 2\), se tiene un caso (\(n_2 = 1\)).
Si \(n_1 = 3\), se tienen 2 casos (\(n_2 = 1,2\)).
…
Si \(n_1 = n\), se tienen \(n-1\) casos.
Entonces, la cardinalidad del evento es \(\sum\limits_{i = 0}^{n-1} i = \frac{n(n-1)}{2}\).
Por lo tanto, \(P(E) = \frac{n(n-1)}{2n^2} = \frac{n(n-1)}{2n}\).
\[P(E) = \frac{2}{6} + \frac{3}{6} \times \frac{2}{6} + \left(\frac{3}{6} \right)^2 \times \frac{2}{6} + \left( \frac{3}{6} \right)^3 \times \frac{2}{6} + \dots\]
\[= \sum\limits_{i = 0}^{\infty} \left( \frac{3}{6} \right)^i \times \frac{2}{6}\]
\[= \frac{2}{6} \times \frac{1}{1 - \frac{3}{6}}\]
\[= \frac{2}{6} \times \frac{6}{6 - 3}\]
\[= \frac{2}{3}.\]
Ahora, para la cardinalidad del evento, la única manera en la que pueden tener igual número de hombres y mujeres los dos grupos es que ambos tengan 3 hombres y 3 mujeres. La cardinalidad de los grupos de tres hombres y tres mujeres es igual a: \(\frac{6!}{3!3!} \times \frac{6!}{3!3!}\) (nuevamente, una vez que el primer grupo está armado, el otro queda determinado también).
Entonces
\[P(E) = \frac{\frac{6!}{3!3!} \times \frac{6!}{3!3!}}{\frac{12!}{6!6!}}\]
\[= 0.4329004.\]
Para el primer evento, la cardinalidad es \((6 \times 6 \times 4) + (6 \times 4 \times 6) + (4 \times 6 \times 6) = 6^2 \times 4 \times 3\).
Entonces, la probabilidad del primer evento será igual a:
\[P(E) = \frac{432}{1000} = 0.432.\]
Para el segundo evento, fijémonos en el evento complementario: no obtener ninguna bola azul. La cardinalidad de este evento es: \(4^3\). Entonces, la probabilidad del segundo evento es:
\[P(E) = 1 - \frac{4^3}{10^3} = 1 - 0.4^3 = 0.936.\]
Ahora, para el primer evento, que todos se queden en un hotel diferente, la cardinalidad de este evento es: \(5 \times 4 \times 3\). Entonces:
\[P(E_1) = \frac{5 \times 4 \times 3}{5^3} = \frac{12}{25}.\]
Para el segundo evento, la cardinalidad es igual a \(5\), entonces:
\[P(E_2) = \frac{5}{5^3} = \frac{1}{25}.\]
Entonces:
-\(p_0 = \frac{1}{27}\) -\(p_1 = \frac{6}{27}\) -\(p_2 = \frac{12}{27}\) -\(p_3 = \frac{8}{27}\)
I y II se únicamente cuando toman el mismo camino, entonces, \(P(E) = \frac{10}{100} = 1/10\).
Acertar los 6 naturales.
5 naturales y el adicional.
5 naturales.
4 naturales.
3 naturales y el adicional.
Encuentra \(p_i\) la probabilidad de ganar el i-ésimo lugar.
\[p_1 = \frac{1}{C_{44,6}}\]
Para el segundo lugar es necesario obtener 1 número adicional, y las \(6 \times 38\) (no puede salir uno, si no, sería primer lugar) configuraciones de los 5 números naturales ganadores.
\[p_2 = \frac{1 \times 6 \times 38}{38 \times C_{44,6}} = \frac{6}{C_{44,6}}\]
Para el tercer lugar, es necesario obtener cualquiera de las \(6 \times 38\) configuraciones de los 5 números naturales ganadores y no obtener el adicional.
\[p_3 = \frac{37 \times 6 \times 38}{38 \times C_{44,6}} = \frac{6}{C_{44,6}}\]
Para el cuarto lugar, es necesario obtener cualquiera de las configuraciones de los 4 números naturales ganadores (dos números no pueden salir o sería un premio mayor) y el adicional no importa.
\[p_4 = \frac{38 \times C_{6,4} \times C_{38,2}}{38 \times C_{44,6}}.\]
Para el quinto lugar, es necesario obtener cualquiera de las configuraciones de 3 números naturales ganadores (tres números no pueden salir o sería un premio mayor) y el adicional.
\[p_5 = \frac{C_{6,3} \times C_{38,3}}{C_{44,6}} \frac{3}{38}.\]
\[P\left(\bigcup\limits_{i=1}^N E_i\right).\]
La probabilidad de que nadie se lleve su propio sombrero es
\[1 - P\left(\bigcup\limits_{i=1}^N E_i\right).\]
Ahora,
\[P\left(\bigcup\limits_{i=1}^N E_i\right) =\]
\[\sum\limits_{i = 1}^N P(E_i) - \sum\limits_{i_1 < i_2} P(E_{i_1} \cap E_{i_2}) + \sum\limits_{i_1 < i_2 < i_3} P(E_{i_1} \cap E_{i_2} \cap E_{i_3}) + \dots +\]
\[(-1)^{m+1}\sum\limits_{i_1 < \dots < i_m} P(E_{i_1} \cap \dots \cap E_{i_m}) + \dots + (-1)^{N+1} P(E_{i_1} \cap \dots \cap E_{i_N}).\]
Por otra parte:
\[P(E_{i_1} \cap \dots \cap E_{i_m}) = \frac{1}{P_{N,m}}\]
y existen \(C_{N,m}\) términos con esta probabilidad. Entonces:
\[\sum\limits_{i_1 < \dots < i_m} P(E_{i_1} \cap \dots \cap E_{i_m}) = \frac{C_{N,m}}{P_{N,m}}\]
\[= \frac{N!(N-m)!}{m!N!(N-m!)} = \frac{1}{m!}.\]
Entonces
\[P\left(\bigcup\limits_{i=1}^N E_i\right) = 1 - \frac{1}{2!} + \frac{1}{3!} + \dots + (-1)^{m+1} \frac{1}{m!} + \dots + (-1)^{N+1} \frac{1}{N!}.\]
Y, entonces,
\[P(E) = 1 - 1 + \frac{1}{2!} - \frac{1}{3!} + \dots - (-1)^{m+1} \frac{1}{m!} - \dots - (-1)^{N+1} \frac{1}{N!}.\]
Ahora, recordemos que
\[e^x = \sum\limits_{i = 0}^{\infty} \frac{x^i}{(i+1)!}.\]
Entonces:
\[\lim\limits_{N \rightarrow \infty} P\left(\bigcup\limits_{i=1}^N E_i\right) = 1 - e^{-1}.\]
Por lo tanto
\[\lim\limits_{N \rightarrow \infty} P(E) = e^{-1}.\]
Para la segunda pregunta, consideremos un grupo de \(k\) personas. Se pueden formar \(C_{N,k}\) grupos de \(k\) personas. Cada grupo de \(k\) personas se puede combinar con
\[(N-k)! \times \left[1 - P\left(\bigcup\limits_{i=1}^{N-k} E_i\right)\right]\]
diferentes grupos de \(N-k\) personas que no se llevaron su propio sombrero.
Entonces
\[P(E) = \frac{C_{N,k} \times (N-k)! \times \left[1 - P\left(\bigcup\limits_{i=1}^{N-k} E_i\right)\right]}{N!}\]
\[= \frac{\frac{N!}{k!(N-k)!} \times (N-k)! \times \left[\frac{1}{2!} - \frac{1}{3!} + \dots - (-1)^{m+1} \frac{1}{m!} - \dots - (-1)^{N-k+1} \frac{1}{(N-k)!}\right]}{N!}\]
\[= \frac{\frac{1}{2!} - \frac{1}{3!} + \dots - (-1)^{m+1} \frac{1}{m!} - \dots - (-1)^{N-k+1} \frac{1}{(N-k)!}}{k!}.\]
\[P(E) = \frac{\frac{4}{3} \pi \frac{l^3}{8}}{l^3} = \frac{\pi}{6}.\]
Ahora, para la cardinalidad de los eventos:
Hay 1 única manera de obtener $15, entonces \(P(E) = \frac{1}{C_{6,3}} = \frac{1}{\frac{6!}{3!3!}} = 0.05.\)
Para obtener $40 tienen que salir por fuerza las monedas de 25 y 10 y una de 5, pero hay tres de 5 por lo que \(P(E) = \frac{3}{20}\).
Veamos que, aún obteniendo las tres monedas más altas (50, 25 y 10) no se logran juntar $100, por lo tanto \(P(E) = 0\).
Para obtener más de $50 es necesario obtener la moneda de $50 por lo que \(P(E) = \frac{1 \times C_{5,2}}{20} = \frac{10}{20} = \frac{1}{2}\).
Para la cardinalidad del evento una alternativa es considerar el evento en el que al menos 1 pareja queda junta: \(6 \times 4!\).
¿?
\[P(E_1^c) = 1 - P(E_1) = 1 - P(Roja \cup Blanca) = 1 - 3/5 = \frac{2}{5}.\]
\[P(A \cup B) = P(A) + P(B) - P(A \cap B)\]
\[= 0.5 + 0.2 - 0.1\]
\[= 0.6.\]
Para la segunda probabilidad observemos que el evento de que ninguno de los dos repruebe es el complemento de que al menos uno de los dos repruebe. Por lo tanto, la probabilidad del evento es igual a \(1-0.6=0.4\).
La probabilidad de que solamente uno de los dos repruebe el examen es \(P(A) + P(B) - 2 \times P(A \cap B) = 0.5 + 0.2 - 2 \times 0.1 = 0.5\).
\(A \cap B = \emptyset\), por lo tanto, \(B \cap A^c = B\), de lo que se desprende que \(P(B \cap A^c) = P(B) = \frac{1}{2}\).
\(A \subset B\). Entonces \(B = A \cup (B \cap A^c)\), por lo que \(P(B) = P(A \cup (B \cap A^c))\) pero \(A \cap (B \cap A^c) = \emptyset\), entonces \(P(B) = P(A) + P(B \cap A^c)\), y despejando: \(P(B \cap A^c) = P(B) - P(A) = \frac{1}{2} - \frac{1}{3} = \frac{1}{6}\).
\(P(A \cap B) = \frac{1}{8}\). Observemos primero que \(B = (B \cap A) \cup (B \cap A^c)\) y que \((B \cap A) \cap (B \cap A^c) = \emptyset\). Entonces, \(P(B) = P(B \cap A) + P(B \cap A^c)\) y, despejando, \(P(B \cap A^c) = P(B) - P(B \cap A) = \frac{1}{2} - \frac{1}{8} = \frac{3}{8}\).
\[ \begin{aligned} P(A \cup B) &= P(A) + P(B) - P(A \cap B) \\ P(A \cap B) &= P(A) + P(B) - P(A \cup B) \\ &= 0.5 + 0.65 - 0.85 \\ &= 0.3. \end{aligned} \]
\[ P(A \cup B) = P(A) + P(B) - P(A \cap B) \\ P(A \cap B) = P(A) + P(B) - P(A \cup B) \\ P(A \cap B) = 0.4 + 0.7 - P(A \cup B) \\ P(A \cap B) = 1.1 - P(A \cup B). \]
Sabemos también que \(P(A \cap B) \leq 1\) por lo que \(P(A \cap B) \geq 0.1\). En particular, \(P(A \cap B)\) alcanza su máximo, \(P(A \cap B) = 1\), cuando \(P(A \cup B) = 0.1\). Este, sin embargo, es el caso trivial porque \(P(A \cap B) = 1\) implica que \(A = \Omega\) o \(B = \Omega\), pero por sus probabilidades sabemos que ni \(A\) ni \(B\) son iguales al espacio muestral. Entonces, tenemos tres casos:
\(A \cap B = \emptyset\), entonces \(P(A \cap B) = 0\);
\(B \subset A\), este caso no puede ser ya que \(P(A) < P(B)\).
\(A \subset B\), entonces \(P(A \cup B) = P(B) = 0.7\) por lo que \(P(A \cap B) = 1.1 - 0.7 = 0.4\)
Por otro lado, \(P(A \cap B)\) alcanza su mínimo, \(P(A \cap B) = 0.1\), cuando \(P(A \cup B) = 1\).
\[(A \cap B^c) \cup (B \cap A^c).\]
Entonces:
\[P[(A \cap B^c) \cup (B \cap A^c)] = P(A \cap B^c) + P(B \cap A^c) - P[(A \cap B^c) \cap (B \cap A^c)]\]
pero \(P[(A \cap B^c) \cap (B \cap A^c)] = 0\) por lo que
\[ P[(A \cap B^c) \cup (B \cap A^c)] = P(A \cap B^c) + P(B \cap A^c) \]
Ahora, observemos que \(A = (A \cap B^c) \cup (A \cap B)\) por lo que \(P(A) = P(A \cap B^c) + P(A \cap B)\) puesto que \((A \cap B^c) \cap (A \cap B) = \emptyset\). Y por lo tanto \(P(A \cap B^c) = P(A) + P(A \cap B)\). Por el mismo argumento \(P(B \cap A^c) = P(B) + P(A \cap B)\). Por lo tanto:
\[ P[(A \cap B^c) \cup (B \cap A^c)] = P(A) + P(A \cap B) + P(B) + P(A \cap B) \\ = P(A) + P(B) + 2P(A \cap B). \]
Solución :
\[ (x-\frac{1}{2})^2 + (y - \frac{1}{2})^2 = \frac{1}{4} \]
es la ecuación que describe a un círculo de radio \(\frac{1}{2}\) y centro en \((1/2, 1/2)\). Entonces, la desigualdad describe a todos los puntos que se encuentran fuera del circulo unitario inscrito en el cuadrado unitario.
El área del círculo unitario es igual a \(\pi \times \frac{1}{4}\), entonces el área fuera del círculo pero dentro del cuadrado es \(1 - \frac{\pi}{4}\).
\[ P(E) = 1 - 2 \times \frac{\frac{1}{2} \times \frac{1}{2}}{2} \\ = 1 - \frac{1}{4} = \frac{3}{4}. \]
\[ P(E) = \int\limits_0^1 (1 - x^2)dx \\ = (x - \frac{1}{3}x^3)|_0^1 \\ = 1 - \frac{1}{3} \\ = \frac{2}{3}. \]
\[P(\bigcup\limits_{i = 1}^n = \sum\limits_{i=1}^n P(B_i)\]
y que
\[P(\bigcup\limits_{i = 1}^{\infty} = \sum\limits_{i=1}^{\infty} P(B_i)\]
Veamos el caso de \(i = 2\):
\[ A_2 = (A_2 \cap A_1) \cup (A_2 \cap A_1^c) \\ = B_2 \cup (A_2 \cap B_1). \]
Entonces
\[ P(A_1 \cup A_2) = P(A_1) + P(A_2) - P(A_1 \cap A_2) \\ = P(B_1) + P(B_2 \cup (A_2 \cap B_1)) - P(A_1 \cap A_2) \\ = P(B_1) + P(B_2) + P(A_2 \cap B_1) - P(B_2 \cap B_1 \cap A_2)) - P(A_1 \cap A_2) \\ = P(B_1) + P(B_2) + P(A_2 \cap A_1) - P(A_1 \cap A_2) \\ = P(B_1) + P(B_2). \]
\(i = 3\):
\[ P(A_1 \cup A_2 \cup A_3) = P[(A_1 \cup A_2) \cup A_3] \\ = P[(A_1 \cup A_2)] + P(A_3) - P[(A_1 \cup A_2) \cap P(A_3)] \\ = P(B_1) + P(B_2) + P(A_3) - P[(A_1 \cup A_2) \cap P(A_3)] \\ = P(B_1) + P(B_2) + P[(A_3 \cap (A_2 \cup A_1)^c) \cup(A_3 \cap (A_2 \cup A_1))] - P[(A_1 \cup A_2) \cap P(A_3)] \\ = P(B_1) + P(B_2) + P[(A_3 \cap (A_2 \cup A_1)^c)] + P[(A_3 \cap (A_2 \cup A_1))] - P[(A_1 \cup A_2) \cap P(A_3)] \\ = P(B_1) + P(B_2) + P(B_3). \]
\(i = n\):
\[ P(A_1 \cup A_2 \cup \dots \cup A_n) = P[(A_1 \cup \dots \cup A_{n-1}) \cup A_3] \\ = P[(A_1 \cup \dots \cup A_{n-1})] + P(A_n) - P[(A_1 \cup \dots \cup A_{n-1}) \cap P(A_n)] \\ = P(B_1) + \dots + P(B_{n-1}) + P[(A_n \cap (A_{n-1} \cup \dots \cup A_1)^c) \cup (A_n \cap (A_{n-1} \cup \dots \cup A_1))] - P[(A_1 \cup \dots \cup A_{n-1}) \cap P(A_n)] \\ = P(B_1) + \dots + P(B_{n-1}) + P[(A_n \cap (A_{n-1} \cup \dots \cup A_1)^c)] + P[(A_n \cap (A_{n-1} \cup \dots \cup A_1))] - P[(A_1 \cup \dots \cup A_{n-1}) \cap P(A_n)] \\ = P(B_1) + P(B_2) + \dots + P(B_n). \]
DeGroot (1988), cap. 2.1.
Hsu (1997), cap. 1.6, 1.7.
En ocasiones queremos determinar la probabilidad de que ocurra un evento \(A\) pero habiéndose verificado, primero, la ocurrencia de un evento \(B\). Si el evento \(A\) y el evento \(B\) están, efectivamente, relacionados de alguna manera, es razonable pensar que la probabilidad asociada a la ocurrencia del evento \(A\) no será la misma si tomamos en consideración la información proporcionada por la ocurrencia del evento \(B\). A esto se le llama la probabilidad condicional del evento \(A\) dado el evento \(B\).
\[ \begin{aligned} P[A|B] &= \frac{P[A \cap B]}{P[B]} & P[B] > 0. \end{aligned} \]
De manera más intuitiva, se puede pensar en la probabilidad condicional de \(A\) en \(B\) como la proporción que representan los casos en la intersección del evento \(A\) con el evento \(B\) del total de casos del evento \(B\) o, en otras palabras, podemos pensar que, sabiendo que el evento \(B\) se ha verificado, los elementos del evento \(B\) se vuelven el nuevo espacio muestral, entonces necesitamos evaluar cuántos casos del evento \(A\) se encuentran dentro de este nuevo espacio muestral y determinar su probabilidad correspondiente.
A: la suma de los valores obtenidos en los dos dados es menor que seis;
B: cae al menos un dos.
¿Cuál es la probabilidad de que ocurra \(A\) dado que ya se verificó el evento \(B\)?
\(\Omega = \{ (1,1), (1,2), (1,3), \dots, (6,6)\}\)
\(A = \{(1,1), (1,2), (1,3), (1,4), (2,1), (2,2), (2,3), (3,1), (3,2), (4,1)\}\)
\(B = \{(1,2), (2,1), (2,2), (2,3), (2,4), (2,5), (2,6), (3,2), (4,2), (5,2), (6,2)\}\)
\(A \cap B = \{(1,2), (2,1), (2,2), (2,3), (3,2)\}\)
Podemos ver entonces que:
\(P[A] = \frac{|A|}{|\Omega|} = \frac{10}{36} = \frac{5}{18}\);
\(P[B] = \frac{|B|}{|\Omega|} = \frac{11}{36}\);
\(P[A \cap B] = \frac{|A \cap B|}{|\Omega|} = \frac{5}{36}\).
Entonces, de la definición de la probabilidad condicional:
\[ P[A|B] = \frac{P[A \cap B]}{P[B]} = \frac{5/36}{11/36} = 5/11. \]
Dado que \(A,B \in \Omega\) entonces \(A \cap B \in \Omega\) por lo que \(P[A \cap B] \geq 0\). Dado que \(P[B] > 0\), entonces \(P[A|B] = \frac{P[A \cap B]}{P[B]} \geq 0\).
\(P[\Omega | B] = \frac{P[\Omega \cap B]}{P[B]} = \frac{P[B]}{P[B]} = 1\).
Sean \(A_1, A_2, \dots\) eventos ajenos dos a dos, entonces
\[ \begin{aligned} P\left[ \left. {\bigcup\limits_{i=1}^\infty A_i} \right| B \right] &= \frac{P \left[ \left(\bigcup\limits_{i=1}^\infty A_i \right) \cap B \right]}{P[ B ]}\\ &= \frac{P \left[ \left(\bigcup\limits_{i=1}^\infty A_i \cap B \right) \right]}{P[ B ]}\\ &= \sum\limits_{i=1}^{\infty} \frac{P \left[ \left(A_i \cap B \right) \right]}{P[ B ]}\\ &= \sum\limits_{i=1}^{\infty} P[A_i|B]. \end{aligned} \]
\[ P[A] = \sum\limits_{i=1}^n P[B_i]P[A|B_i]. \]
\[ \begin{aligned} P[A] &= P[A \cap \Omega]\\ &= P\left[A \cap \left(\bigcup\limits_{i=1}^n B_i\right)\right]\\ &= P\left[\bigcup\limits_{i=1}^n A \cap B_i\right]\\ &= \sum\limits_{i=1}^n P\left[ A \cap B_i\right]\\ &= \sum\limits_{i=1}^n P[B_i]P[A|B_i]. \end{aligned} \]
\[ P[A] = \frac{P[A|B_j]P[B_j]}{\sum\limits_{i=1}^n P[A|B_i]P[B_i]} \]
\[ P[A|B] = P[A]; P[B|A] = P[B]. \]
\[ \begin{aligned} P[A|B] &= \frac{P[A \cap B]}{P[B]}\\ &= \frac{P[A]P[B]}{P[B]} & \text{Independencia.}\\ &= P[A]. &\\ \end{aligned} \]
\[ P[A_1 \cap A_2 \cap \dots \cap A_n] = P[A_1]P[A_2|A_1]P[A_3|A_1 \cap A_2] \cdots P[A_n | A_1 \cap A_2 \cap \dots \cap A_{n-1}]. \]
\[ \begin{aligned} P[A_1 \cap A_2] &= P[A_1]P[A_2|A_1]\\ P[A_1 \cap A_2 \cap A_3] &= P[(A_1 \cap A_2) \cap A_3]\\ &= P[A_1]P[A_2|A_1]P[A_3|A_1 \cap A_2]\\ &= \cdots\\ &= P[A_1]P[A_2|A_1]P[A_3|A_1 \cap A_2] \cdots P[A_n|A_1 \cap A_2 \cap \cdots A_{n-1}]. \end{aligned} \]
Un modelo probabilístico es una descripción matemática de una situación incierta. Sus tres ingredientes principales son:
El espacio muestral (\(\Omega\)): el conjunto (no vacío) de todos los posibles resultados de un experimento. El espacio muestral de un experimento puede consistir de un número finito o infinito de posibles resultados. Sin importar su cardinalidad, los diferentes elementos del espacio muestral deben ser distintos y mutuamente excluyentes para que cuando el experimento se realice haya solamente un resultado. Adicionalmente, el espacio muestral debe ser colectivamente exhaustivo, de manera que no importa qué suceda en el experimento, el resultado siempre se encuentre contenido en el espacio muestral. Finalmente, el espacio muestral debe contener suficiente detalle para distinguir todos los posibles resultados de interés, al mismo tiempo que se omiten los detalles irrelevantes.
La \(\sigma\)-álgebra (\(\mathcal{F}\)): una colección de subconjuntos de \(\Omega\), incluyendo a \(\Omega\) y al conjunto vacío \(\emptyset\), cerrado bajo la formación de complementos y uniones e intersecciones contables.
La ley de probabilidad: que relaciona a \(\mathcal{F} \subseteq \Omega\), un conjunto de posibles resultados (llamado un evento) con un número no negativo \(P(A)\) (la probabilidad de \(A \in \mathcal{F}\)) que codifica nuestro conocimiento o creencias sobre la verosimilitud de los elementos de \(\mathcal{F}\). La ley de probabilidad debe satisfacer los siguientes axiomas:
¿Puedes expresar verbalmente cada uno de estos axiomas?
Respecto del \(\sigma\)-álgebra, decimos que \(\mathcal{F}\) es cerrado bajo la formación de complementos y uniones e intersecciones contables si:
Para todo subconjunto \(A \subseteq \Omega\), si \(A \in \mathcal{F}\), entonces \(A^C \in \mathcal{F}\).
Para cualquier colección contable de subconjuntos \(A_1, A_2, \dots \subseteq \Omega\), si \(A_i \in \mathcal{F} \space \forall i\), entonces \(A_1 \cap A_2 \cap \dots \in \mathcal{F}\).
Para cualquier colección contable de subconjuntos \(A_1, A_2, \dots \subseteq \Omega\), si \(A_i \in \mathcal{F} \space \forall i\), entonces \(A_1 \cup A_2 \cup \dots \in \mathcal{F}\).
La descripción de las leyes de probabilidad son quizá muy intuitivas cuando se trabaja en el caso discreto (p.e., lanzamientos de dados) sin embargo, los eventos individuales no son suficientes para caracterizar a las leyes de probabilidad cuando transitamos al caso continuo. Preguntémonos, ¿cuál es la probabilidad de un evento individual que toma valores en el intervalo continuo \([a, b]\)? ¿Cuántos elementos individuales hay contenidos en dicho intervalo?
La probabilidad de un evento individual en un espacio muestral continuo tiene que ser 0 si se debe satisfacer el axioma de aditividad.
(Agregar de una vez el tema futuro de cálculo de probabilidad de funciones de variables aleatorias y resolver el problema de la diferencia de uniformes. Ver sección 3.9 de DeGroot 1988.)
Sean \(X_1, \dots, X_n\) \(n\) variables aleatorias con función de densidad conjunta \(f(x_1, \dots, x_n)\) y sea \(Y = r(X_1, \dots, X_n)\) una función de \(X_1, \dots, X_n\), entonces la función de distribución de \(Y\), \(G(y)\) será igual a
\[G(y) = P[Y \leq y] = P[r(X_1, \dots, X_n) \leq y] =\]
\[\int \dots \int_{A_y} f(x_1, \dots, x_n) dx_1 \dots dx_n\]
donde \(A_y\) es el subconjunto en \(R^n\) que contiene todos los puntos \((x_1, \dots, x_n)\) tales que \(r(X_1, \dots, X_n) \leq y\).
Una propiedad muy útil en estos casos es, entonces, el Teorema del Cambio de Variables:
\[\int_D f(x,y)dxdy = \int_{D^{*}} f(x(u,v), y(u,v)) \left| \frac{\partial(x,y)}{\partial(u,v)} \right|dudv\]
donde \(|\frac{\delta(x,y)}{\delta(u,v)}|\) es el Jacobiano de la transformación, definido como:
\[\frac{\partial(x,y)}{\partial(u,v)} = \left| \begin{array}{} \frac{\partial y}{\partial u} & \frac{\partial x}{\partial v} \\ \frac{\partial y}{\partial u} & \frac{\partial y}{\partial v}\end{array} \right|\]
y, por lo tanto, \(|\cdot|\) es el determinante de la matriz.
Si definimos:
\[Y = X_1 + X_2\]
entonces
\[F_{Y,Z}(y,z) = \int\limits_{D} f_{Y,Z}(y,z)dy = \int\limits_{D^*} f_{x_1,x_2}(x_1(y,z),x_2(y,z)) \left| \begin{array}{} \frac{\partial x_1}{\partial y} & \frac{\partial x_1}{\partial z} \\ \frac{\partial x_2}{\partial y} & \frac{\partial x_2}{\partial z}\end{array} \right| dydz\]
donde
\[Z = X_2\]
y
\[X_1 = Y - Z\]
\[\Rightarrow \left| \begin{array}{} \frac{\partial x_1}{\partial y} & \frac{\partial x_1}{\partial z} \\ \frac{\partial x_2}{\partial y} & \frac{\partial x_2}{\partial z}\end{array} \right| = \left| \begin{array}{} 1 & -1 \\ 0 & 1 \end{array} \right| = 1*1 - (-1)*0 = 1\]
entonces, dado que \(D^*\) es el soporte de \((Y,Z)\) la función de densidad conjunta de \(Y,Z\) tiene que ser igual a:
\[f_{Y,Z}(y,z) = f_{x_1,x_2}(x_1(y,z),x_2(y,z))\]
pero \(X_1\) y \(X_2\) son vv.aa.ii.i.dd. por lo que
\[f_Y(y) = \int\limits_{-\infty}^{\infty} f_{x_1}(x_1(y,z))f_{x_2}(x_2(y,z)) dz = \int\limits_{-\infty}^{\infty}f(y-z)f(z) dz =\]
[Seguir, falta desarrollar para la función de distribución N(mu,sigma)]
Un axioma, en un cuerpo teórico, es una proposición sobre la cual descansan otros razonamientos y proposiciones que se deducen de esta. Pueden ser tanto afirmaciones que se consideran obvias o evidentes en sí mismas (y, por lo tanto, no son probadas) o bien puede tratarse de proposiciones o postulados a partir de los cuales se construye la teoría.↩︎
Georges-Louis Leclerc, Conde de Buffon, fue un noble francés del s. XVIII. Planteó este problema y su símil relativo al lanzamiento de una moneda. Estos problemas forman parte de los inicios del planteamiento de lo que puede ser llamado “pobabilidad geométrica” (disciplina hoy en día dividida en dos ramas: geometría integral y geometría estocástica).↩︎