5 Teoría elemental de las probabilidades

20 Pages • 7,084 Words • PDF • 1.5 MB
Uploaded at 2021-09-24 12:49

This document was submitted by our user and they confirm that they have the consent to share it. Assuming that you are writer or own the copyright of this document, report to us by using this DMCA report button.


Objetivos

Que el estudiante logre: 

Conocer las leyes elementales de las probabilidades.



Calcular la probabilidad de un suceso simple P(A) y de sucesos compuestos P(A ó B) y P(A y B)



Diagnosticar si dos sucesos son excluyentes o no excluyentes, independientes o no independientes, complementarios o no complementarios.



Resolver problemas de conteo mediante el cálculo combinatorio empleando las fórmulas de Permutaciones, Variaciones, y Combinatorias.



Resolver problemas mediante diagramas de Venn y tablas de contingencia.

Teoría elemental de las probabilidades Tal como afirmaba Democrito -padre de la Teoría Atómica-el universo está regido por el azar (Leyes Probabilísticas) y la necesidad (Leyes Determinísticas) Explicar un fenómeno o proceso significa atribuir la génesis del mismo a un factor casual (azar), a uno causal (causa - efecto), o a una conjunción de ambos. Nosotros nos referiremos a los procesos estocásticos o aleatorios, es decir a los sucesos que dependen del azar o la suerte, y que no están determinados por una ley causal. Si bien los sucesos aleatorios son imprevisibles, no obstante es posible calcular su probabilidad de ocurrencia. Para ello debemos ver las principales definiciones de probabilidad.

Probabilidad clásica o ‘a priori’ La probabilidad de que un suceso “A” ocurra está determinada por el cociente entre el número de casos favorables a ese suceso y el número de casos posibles, dentro de los cuales se incluye ese suceso, siempre y cuando los casos posibles sean todos igualmente probables o equiprobables. Esta definición es original del matemático Pierre Simon Laplace, (1749- 827) La probabilidad simple de un suceso “A”, se denota P(A), y su fórmula es entonces:

P( A ) 

No de casos favorables No de casos posibles

Es importante señalar que esta definición clásica es válida únicamente cuando todos los sucesos son igualmente probables. La definición clásica adolece pues de una falla epistemológica (la epistemología es la filosofía de las ciencias), ya que en la definición de probabilidad estamos empleando implícitamente la propia palabra probabilidad (al pedir que los sucesos sean equiprobables) ¡Sería como definir el color azul diciendo que es un color de aspecto azulado! En el presente curso de Estadística no nos preocuparemos mucho por esta falla epistemológica, se la dejaremos a los epistemólogos, y en cambio haremos pleno uso de la definición clásica ya que es muy útil para una gama muy variada de problemas. Ejemplo #1: Al arrojar una moneda la probabilidad de obtener cara es:

P( X  cara) 

1 2

ya que hay un solo caso favorable (cara) y dos posibles (cara y ceca)

Al universo de posibles resultados lo denominamos Espacio Muestral del experimento o Universo Probable. En nuestro ejemplo #1 el espacio muestral es S = {cara, ceca} Ejemplo #2: Calcular la probabilidad de que al tirar un dado salga el Nº 5.

P( X  5) 

1  0,166...  0,167 6

En este segundo ejemplo, el espacio muestral es S = {1, 2, 3, 4, 5, y 6} es decir que está compuesto por un total de seis resultados posibles. En la investigación social o de mercados la mayoría de las veces no se realizan censos que permitan la enumeración del universo probable, sino que lo que se conoce son las distribuciones empíricas de la frecuencia de aparición de ciertos sucesos o categorías en la totalidad de la muestra. El suceso o evento que se espera que ocurra se denomina “éxito”, y su opuesto “fracaso”. Así, si cara es éxito, ceca será fracaso; o si el número 5 del dado es éxito, los números (1, 2, 3, 4 y 6) serán fracaso.

Probabilidad empírica, frecuencial, o ‘a posteriori’ La probabilidad empírica o frecuencial se define como el límite de la frecuencia relativa de un suceso, cuando el número de repeticiones del ensayo o experimento es muy grande, o en términos matemáticos cuando N tiende a infinito (N  ) En símbolos:

f  lim r N  N N 

P( A )  lim

Donde “f” es la frecuencia simple y “r” la relativa.

Gráficamente el concepto de probabilidad empírica o a posteriori puede entenderse así:

Probabilidad frecuencial de "cara" Frec. relativa (r)

0.65 0.6 0.55 0.5 0.45 0.4 0.35 0.3 5

10

15

20

25

30

35

40

45

50

55

60

65

70

Número de tiradas de una moneda

Es decir, que en una distribución empírica de frecuencias cuando la muestra es grande (técnicamente cuando N  ), la frecuencia relativa del suceso (r) tiende a aproximarse a la probabilidad teórica del mismo (p) Veamos dos ejemplos que aclararán estos conceptos: Ejemplo #3: En la siguiente tabla volcamos los datos de un experimento consistente en arrojar una moneda un número creciente de veces. Para determinados valores de N anotamos en la segunda columna la cantidad de veces que se obtiene “cara”, es decir la frecuencia simple de ocurrencia de “cara”. Finalmente, en la tercera columna anotamos la frecuencia relativa de la ocurrencia de “cara”. Obsérvese que a medida que el número de tiradas de la moneda aumenta, desde 10 tiradas hasta 100.000 tiradas, la frecuencia relativa tiende a estabilizarse alrededor de la probabilidad “a priori”, y si esto sucede así es porque la moneda analizada está balanceada.

N = Tiradas de moneda 10 20 30 100 500 1.000 2.000 100.000

f(X = cara) 4 12 13 48 270 529 1.012 50.000

r = f/N 4/10 = 0,400 12/20 = 0,600 13/30 = 0,433 48/100 = 0,480 270/500 = 0,540 529/1.000 = 0,529 1.012/2.000 = 0,511 50.000/100.000= 0,500

Ejemplo #4: La siguiente tabla de distribución de frecuencias consigna las cantidades de Argentinos, Paraguayos, Bolivianos, Chilenos, y Otros, pertenecientes a un conjunto de 600 operarios de una empresa constructora. Con esta tabla, podemos calcular las probabilidades empíricas para las diferentes categorías, Estas probabilidades empíricas (p) coinciden con las correspondientes frecuencias relativas (r): Nacionalidad (A) Argentinos (P) Paraguayos (B) Bolivianos (Ch) Chilenos (O) Otros Totales

f 150 120 130 110 90 f = N = 600

r = f/N = p 0,25 0,20 0,22 0,11 0,15 r = p = 1

Por ejemplo, si se selecciona un operario al azar de entre el grupo de 600, la probabilidad de que sea Argentino es:

P( A ) 

f A 150   rA  0,25 N 600

Donde el subíndice “A” indica “Argentino”, y fA y rA son las frecuencias simple y relativa del suceso “Argentino”. Análogamente, la probabilidad de seleccionar al azar un operario no-Argentino, que denotaremos por P(~A), donde el símbolo “~” indica negación, se obtiene mediante la siguiente expresión:

P(~ A ) 

fP  fB  fCh  fO 450   rP  rB  rCh  rO  0,75 N 600

En donde los subíndices “P”, “B”, “Ch”, y “O” denotan respectivamente “Paraguayo”, “Boliviano”, “Chileno”, y “Otros”. También podemos obtener el mismo resultado teniendo en cuenta que P(A) + P(~A) = 1 como veremos en las propiedades que se listan más adelante.

Probabilidad axiomática y teoría de conjuntos En la moderna teoría axiomática de las probabilidades, se piensa en los posibles resultados de un ensayo o experimento como puntos de un espacio n-dimensional, compuesto por el conjunto de todos los resultados posibles, llamado espacio muestral S. Cada punto del espacio muestral tiene asociado un número no negativo, llamado probabilidad, tal que la suma de todos ellos es uno. En esta descripción, un suceso es un conjunto de puntos del espacio muestral S. Por lo tanto podemos establecer una analogía con la Teoría de Conjuntos, la que resulta muy útil para representar gráficamente los problemas de probabilidad mediante los llamados diagramas de Venn. En la Teoría de Conjuntos, los conjuntos se denotan con letras mayúsculas, y los elementos que los componen con letras minúsculas. Si queremos indicar que un conjunto está formado por determinados elementos, debemos colocar a éstos entre llaves. Así, al conjunto de las vocales del alfabeto español podemos denotarlo por: V = {a, e, i, o, u} Decimos que la vocal “a” pertenece al conjunto V, y esto lo notamos con el siguiente símbolo: aV Nos concentraremos en dos operaciones importantes que pueden realizarse entre los conjuntos: la unión y la intersección. Estas operaciones nos resultarán útiles para calcular las probabilidades de sucesos compuestos. Se define la unión de los conjuntos A y B, y se designa AB, al conjunto formado por los elementos de A, de B, o de ambos. En símbolos: AB = {x/xA  xB} Expresión que debe leerse como el conjunto de elementos que pertenecen a A, a B, o a ambos. El símbolo ““ corresponde en lógica a la disyunción “ó” incluyente, es decir que los elementos pueden pertenecer a un conjunto, al otro, o eventualmente a ambos. Se define la intersección de los conjuntos A y B, y se designa AB, al conjunto formado por los elementos que pertenecen simultáneamente tanto a A como a B. En símbolos: AB = {x/xA  xB} Expresión que debe leerse como el conjunto de elementos que pertenecen a A y a B, es decir, que pertenecen a ambos. El símbolo ““ corresponde en lógica a la conjunción “y”, es decir que los elementos deben pertenecer a ambos conjuntos. Finalmente, resta definir al conjunto vacío, el que se denota, y corresponde al conjunto que no tiene elementos. Veamos ahora la representación gráfica de conjuntos mediante diagramas de Venn. Para ello recurriremos al siguiente ejemplo:

Ejemplo #5: De las 200 personas entrevistadas en una localidad para un programa de prevención de enfermedades cardiovasculares, 35 eran fumadoras, 60 tenían sobrepeso, y de éstas últimas 12 eran también fumadoras. Podemos representar esta situación mediante un diagrama de Venn. El diagrama consiste en un rectángulo denominado Universo, el que incluye a la totalidad de los sujetos del experimento (las 200 personas entrevistadas) Dentro de este rectángulo, se representan mediante óvalos los sujetos fumadores (F) y aquellos con sobrepeso (S) Como en nuestro ejemplo hay sujetos que son fumadores con sobrepeso, ambos óvalos deben superponerse en parte. Dentro de cada región en que queda subdividido el espacio se ubican los números correspondientes a la cantidad de sujetos de esa región. El diagrama completo resulta:

Observando el diagrama podemos ver que hay 23 sujetos fumadores sin sobrepeso, 48 sujetos con sobrepeso pero no fumadores, 12 sujetos fumadores con sobrepeso, y 117 sujetos que ni son fumadores ni tienen sobrepeso. La suma de todas las categorías da 200, lo que se corresponde con la totalidad de individuos encuestados. Con la simbología de la teoría de conjuntos, podemos expresar la cantidad de individuos en cada subconjunto (denotada n(A), y llamada cardinal), como: n(F) = 35

n(S) = 60

n(FS) = 12

n(~F~S) = 117

n(FS) = 23 + 12 + 48 = 83

Estamos en condiciones ahora de calcular diversas probabilidades. Imaginemos que elegimos al azar una persona de ese grupo de 200 individuos. Luego: a) P(F) 

35  0,175 200

b) P(S) 

60  0,30 200

c)

P(F  S) 

d) P(F  S) 

(23 12  48) 83   0,415 200 200 12  0,06 200

e) P(~ F) 

f)

P(~ S) 

(48 117) 165   0,825 200 200 (23 117) 140   0,70 200 200

Si en el ejemplo precedente no hubiera habido sujetos que fueran fumadores con sobrepeso, entonces los conjuntos F y S serían disjuntos, sus óvalos en el diagrama de Venn no se superpondrían, y por lo tanto FS = .

Propiedades de la probabilidad 1. La probabilidad de un suceso P(A) es siempre un número comprendido entre 0 y 1. Esto se debe a que los casos favorables nunca pueden ser más que los posibles. En símbolos: 0  P(A)  1 2. Un suceso con probabilidad P(A) = 0 se define como un suceso imposible. 3. Un suceso con probabilidad P(A) = 1 se define como un suceso cierto o seguro. 4. La probabilidad de ocurrencia de un suceso P(A) más la probabilidad de no-ocurrencia del mismo P(~A) siempre es igual a 1a unidad. En símbolos: P(A) + P(~A) = 1

o bien

P(~A) = 1 – P(A)

5. Dos sucesos cuyas probabilidades suman la unidad se llaman sucesos complementarios.

Leyes de las probabilidades Laplace enunció dos grandes leyes de las probabilidades: la Ley de la Suma, Adición, o de la Probabilidad Total, y la Ley del Producto o de la Probabilidad Compuesta. Veamos en detalle cada una de ellas:

Ley de la suma o de la probabilidad total La ley de la suma se refiere a la probabilidad de que ocurra un suceso A u otro suceso B, y esta probabilidad la denotaremos como P(A ó B) El “ó” es un conectivo lógico que indica que nos interesa la probabilidad de que ocurran indistintamente A ó B. También utilizaremos la notación propia de la Teoría de Conjuntos, por lo que designaremos a P(A ó B) como la probabilidad de la unión de A con B, P(AB) Antes de poder enunciar la ley de suma debemos hacer una importante distinción entre sucesos excluyentes y sucesos no-excluyentes. Diremos que dos sucesos son excluyentes si no pueden suceder simultáneamente, en tanto que dos sucesos son no-excluyentes cuando sí pueden ocurrir simultáneamente. Los siguientes ejemplos aclararán estos conceptos:

Ejemplo #6: De un mazo de 48 cartas españolas (12 cartas de: oro, basto, espada y copa), extraemos una carta al azar, y nos preguntamos cuál es la probabilidad de que sea de oro o de espada. Evidentemente los sucesos “oro” y “espada” son mutuamente excluyentes ya que una carta no puede ser simultáneamente de oro y de espada, por lo tanto, la probabilidad total es simplemente la suma de las probabilidades de los sucesos “oro” y “espada”. En símbolos: P(O ó E) = P(OE) = P(O) + P(E)

P(O  E) 

12 12 24    0,5 48 48 48

donde O: oro y E: espada (pues hay 12 cartas de oro y 12 de espada)

Ejemplo #7: Del mismo mazo de 48 cartas españolas, extraemos una carta al azar, y nos preguntamos ahora cuál es la probabilidad de que sea de oro o rey. Ahora, los sucesos “oro” y “rey” son sucesos no-excluyentes ya que existe al menos una carta, el rey de oro, que es simultáneamente “rey” y “oro”. Por lo tanto si sumáramos simplemente las probabilidades de oro y rey estaríamos contando dos veces la carta “rey de oro” (una vez como rey o otra como oro) Por esta razón, para sucesos no-excluyentes, la probabilidad total es: P(O ó R) = P(OR) = P(O) + P(R) – P(OR)

P(O  R) 

donde O: oro y R: rey

12 4 1 15     0,3125 48 48 48 48

La probabilidad P(OR) indica la probabilidad conjunta de obtener una carta que sea oro y rey simultáneamente, o probabilidad de la intersección de A y B, y como hay una sola carta con estas características en el mazo, la probabilidad de que esto ocurra es P(OR) = 1/48. Estamos ahora en condiciones de enunciar la ley de la suma o de la probabilidad total. Sean dos sucesos A y B, la probabilidad total de obtener A ó B es igual a la probabilidad de A más la probabilidad de B menos la probabilidad conjunta de A y B. En símbolos: P(A ó B) = P(AB) = P(A) + P(B) – P(AB) La fórmula vale tanto para sucesos excluyentes como no excluyentes, ya que si los sucesos son excluyentes la probabilidad conjunta P(AB) = 0, y la fórmula general se reduce a la fórmula simplificada para sucesos excluyentes del ejemplo #6. Ejemplo #8: Sea un bolillero con 10 bolillas: 5 blancas, 2 rojas, y 3 negras. La probabilidad de seleccionar al azar una bolilla que sea blanca o roja es:

P(B  R)  P(B)  P(R) 

5 2 7    0,7 10 10 10

Evidentemente los sucesos “blanca”, “roja”, y “negra” son excluyentes ya que una bolilla no puede ser simultáneamente blanca y roja, blanca y negra, o roja y negra. Por esta razón para calcular la probabilidad total hemos empleado la fórmula simplificada para sucesos excluyentes, es decir hemos sumado las respectivas probabilidades simples.

Probabilidad condicional Otro concepto importante que introduce la Teoría de la Probabilidad es el de probabilidad condicional. Esta se refiere a la probabilidad de que un evento se dé cuando se sabe que algún otro evento se ha presentado. Se escribe P (B|A) y se lee “La probabilidad de que B ocurra, habiendo ocurrido A”, o simplemente “La probabilidad de B, dado A”. La noción de probabilidad condicional permite re-evaluar la probabilidad de un evento a la luz de mayor información, es decir, cuando se sabe que otro evento ha ocurrido. Ejemplo #9: Tenemos un mazo de 48 cartas españolas, y extraemos dos cartas, una a continuación de la otra. La primera (suceso A) ha sido un as de oro. Ahora, al momento de sacar la segunda carta (suceso B) nos preguntamos ¿cuál es la probabilidad de que ésta sea un as, sabiendo que en la primera carta ha salido un as de oro? Solución: Evidentemente la extracción de la primera carta (suceso A) influye en la probabilidad de extraer la segunda (suceso B) ya que se han modificado tanto el número total de ases que quedan en el mazo (3) como la cantidad total de cartas disponibles (47) Por lo tanto:

P( A ) 

1 48

P(B | A ) 

(Probabilidad de extraer un as de oro en la primera extracción)

3 (Probabilidad condicional de extraer un as habiendo salido antes un as de oro) 47

Habiendo definido la probabilidad condicional, estamos ahora en condiciones de presentar la segunda ley de las probabilidades enunciada por Laplace.

Ley del producto o de la probabilidad compuesta La ley del producto se refiere a la probabilidad de que dos sucesos A y B ocurran juntos o en sucesión, y esta probabilidad la denotaremos como P(A y B), o utilizando la notación de la teoría de conjuntos, como la probabilidad de la intersección de A con B, P(AB) La ley del producto indica que la probabilidad de que dos eventos A y B ocurran secuencialmente es igual a la probabilidad de que ocurra el evento A multiplicada por la probabilidad condicional del evento B habiendo ocurrido el evento A. En símbolos:

P( A  B)  P( A)  P(B | A) En este punto debemos definir dos nuevas categorías de eventos: sucesos independientes y sucesos dependientes. Para averiguar si dos sucesos son o no independientes, se los somete a la siguiente prueba de independencia: – Si dos sucesos A y B son independientes, entonces: P(B) = P(B|A) y P(A) = P(A|B) – Si dos sucesos A y B son dependientes, entonces: P(B)  P(B|A) ó P(A)  P(A|B) Obsérvese que el suceso B podría ser independiente del suceso A, pero no al revés. Esto ocurriría si P(B) = P(B|A), pero P(A)  P(A|B), y en este caso decimos que el suceso B es condicionante del suceso A, pero no al revés.

En consecuencia, a partir de la segunda Ley de Laplace podemos redefinir la probabilidad condicional mediante la siguiente fórmula:

P(B | A ) 

P( A  B) P( A )

Es decir, la probabilidad condicional del suceso B habiendo ocurrido el suceso A es igual a la probabilidad conjunta de los sucesos A y B dividida por la probabilidad del suceso A. El siguiente ejemplo aclarará este nuevo concepto: Ejemplo #10: La probabilidad de que un vuelo de cabotaje de una aerolínea argentina despegue a tiempo es P(D) = 0,83; la de que llegue a tiempo es P(T) = 0,80; y las de que despegue y llegue a tiempo P(DT) = 0,78. Encontrar la probabilidad de que un avión: a) Llegue a tiempo dado que despegó a tiempo, P(T|D) Solución:

P(T | D) 

P(D  T) 0,78   0,94 P(D) 0,83

b) Despegue a tiempo dado que llegó a tiempo, P(D|T) Solución:

P(D | T) 

P(D  T) 0,78   0,975 P ( T) 0,80

Tablas de contingencia Un método poderoso para analizar las probabilidades conjuntas de dos variables es mediante el empleo de una tabla de doble entrada llamada tabla de contingencias. El siguiente ejemplo permitirá valorar su utilidad: Ejemplo #11: En un experimento para estudiar la relación entre la hipertensión y el hábito de fumar, se reunieron los siguientes datos correspondientes a un grupo de 180 individuos:

Hipertenso H No Hipertenso ~H Totales

No Fuma ~F 21 48 69

Fuma FP 36 26 62

Poco Fuma FM 30 19 49

Mucho

Totales 87 93 180

Los encabezados de las columnas indican las categorías de los sujetos respecto al hábito de fumar, en tanto que los títulos de las filas corresponden a la condición de su presión arterial. Cada casillero indica la cantidad de individuos con un hábito de fumar y una presión arterial específicas, por ejemplo podemos ver que 30 individuos hipertensos fuman mucho, y que 26 individuos no hipertensos fuman poco. La columna extremo derecha indica la totalidad de individuos clasificados por su presión arterial sin importar su condición de fumador, en tanto que la última fila los clasifica por su condición frente al hábito de fumar sin importar la presión arterial.

Si dividimos todos los casilleros por el total general de individuos (N = 180), obtenemos la llamada tabla de probabilidades conjuntas: No Fuma ~F 21/180 48/180 69/180

Hipertenso H No Hipertenso ~H Totales

Fuma FP 36/180 26/180 62/180

Poco Fuma Mucho Totales FM 30/180 87/180 19/180 93/180 49/180 180/180=1

Esta tabla nos muestra directamente cual es la probabilidad conjunta de ocurrencia de cualquier par de condiciones respecto al hábito de fumar y a la presión sanguínea. Por ejemplo, podemos afirmar que: a)

P(H ~ F) 

21  0,1167 180

b) P(~ H  FM) 

c)

P(H  FP) 

19  0,1055 180

36  0,2 180

También resulta posible evaluar directamente las probabilidades simples o marginales (llamadas así pues se encuentran en los márgenes de la tabla), que dependen de solo una de las condiciones. Por ejemplo, podemos evaluar: a) P(H) 

87  0,4833 180

b) P(~ H) 

21  0,5167 180

P(~ F) 

69  0,3833 180

d) P(FM) 

49  0,2722 180

c)

La tabla original (de contingencias) permite calcular también las probabilidades condicionales. Por ejemplo, si queremos calcular la probabilidad de que un individuo elegido al azar resulte hipertenso sabiendo que fuma mucho, esa probabilidad corresponde a:

P(H | FM) 

30  0,6122 49

Obsérvese que dado que sabemos que el individuo seleccionado fuma mucho, debemos restringirnos a considerar el total de individuos muy fumadores (49) y de ellos tomar los hipertensos (30) De este modo podemos calcular fácilmente cualquier probabilidad condicional, por ejemplo:

a) P(H |~ F) 

21  0,3043 69

b) P(FP |~ H) 

c)

P(FM | H) 

26  0,2795 93

30  0,3448 87

Finalmente, podemos concluir que los sucesos No Fumador e Hipertenso no son sucesos excluyentes pues hay no fumadores hipertensos, es decir:

P(~ F  H)  0



~ F y H no son sucesos excluyentes .

Observando la tabla de contingencias podemos ver que esta condición es equivalente a:

~ F H  



~ F y H no son sucesos excluyentes

Donde  denota el conjunto vacío (conjunto que no tiene elementos)

Calculo combinatorio Para calcular las probabilidades de hechos complejos, es decir, cuando es difícil la enumeración de los casos favorables sobre los casos posibles se usa el llamado cálculo combinatorio. Es una rama de las matemáticas que trata sobre el cálculo de todos los posibles órdenes en que se pueden presentar un cierto número de elementos (N) agrupados de cierto modo. En el cálculo combinatorio se pueden distinguir tres formas distintas de ordenar los elementos de un conjunto: Permutaciones, Variaciones, y Combinaciones

Permutaciones Las permutaciones se refieren a las diferentes formas en que se pueden ordenar N objetos diferentes en exactamente N lugares. Por lo tanto, todas las permutaciones tienen el mismo número de objetos y sólo difieren en el orden de ubicación de los mismos. Se designan por P N y su expresión matemática es: PN = N ! El símbolo N! se lee “N-factorial”, y corresponde a la siguiente expresión matemática: N ! = N×(N–1)×(N–2)×(N–3)×...×3×2×1 Es decir, el factorial de un número entero N es igual al producto de todos los números enteros correlativos decrecientes desde N hasta 1. Además, se define al factorial de cero como uno. En símbolos 0! = 1. Todas las modernas calculadoras científicas incorporan la función factorial, generalmente denotada por x!.

Ejemplo #12: ¿De cuántas formas o maneras distintas se pueden sentar 7 personas en una hilera de 7 sillas? Solución: P7 = 7! = 7×6×5×4×3×2×1= 5040 maneras El siguiente ejemplo muestra la aplicación de un caso de permutaciones al cálculo de la probabilidad de un evento: Ejemplo #13: En una caja hay 6 cubos numerados del 1 al 6 ¿Cuál es la probabilidad de que al extraer los 6 cubos, aparezcan todos en orden creciente? 1

2

3

4

5

6

Solución: La probabilidad es el cociente entre los casos favorables y los casos posibles. Los casos posibles son todos los posibles órdenes en que se pueden presentar los 6 cubos y viene dado por: P6 = 6! = 6×5×4×3×2×1 = 720 casos posibles Además, existe una sola permutación en que los 6 cubos se presentan en orden creciente, por lo tanto la probabilidad de extraer 6 cubos con la numeración en orden creciente es:

P(seis cubos en orden creciente) 

1  0,00139 720

Variaciones Las variaciones se refieren a las diferentes formas en que se pueden ordenar diferentes subgrupos de X objetos de un total de N objetos diferentes en X lugares, donde la cantidad total de objetos disponibles N es mayor o igual a la de lugares X. Se designan por V N,X y su expresión matemática es:

VN,X 

N! (N – X) !

Ejemplo #13: ¿Cuántos números de 3 cifras podemos formar con los dígitos 1, 2, 3, 4, 5, y 6? Solución: Como la totalidad de números disponibles es N = 6, y la cantidad de casilleros o lugares para ubicarlos es X = 3, entonces la solución es:

V6,3 

6! 6 ! 720    120 (6 – 3) ! 3 ! 6

La respuesta es que se pueden formar 120 números diferentes de tres cifras con los seis dígitos disponibles. Ejemplo #14: Si tenemos a 5 personas invitadas, y un sillón en el que sólo pueden sentarse 3 personas, ¿de cuántas maneras podemos hacer que 3 personas se sienten? Solución: Como la totalidad de invitados es N = 5, y la cantidad de asientos o lugares para ubicarlos es X = 3, entonces la solución es:

V5,3 

5! 5 ! 120    60 (5 – 3) ! 2 ! 2

La respuesta es que nuestros 5 invitados se pueden sentar de 60 formas diferentes en los tres lugares disponibles en el sillón. Nótese que en los dos casos anteriores la variación en la posición de los elementos genera subgrupos diferentes, por ejemplo: el número 123 es distinto del 321, y que se sienten Pedro, José, y Ana, no es lo mismo que lo hagan en el orden Ana, Pedro, y José.

Combinaciones En las variaciones de N elementos tomados de a X, el orden en que agrupábamos los elementos si interesaba, ya que daba lugar a ordenamientos diferentes. Si en cambio no nos interesa el orden de agrupación, sino simplemente cuáles son los elementos agrupados, debemos tomar las llamadas combinaciones de N elementos tomados de a X. Su expresión matemática es:

 N N! CN,X      X  (N – X) !  X ! Obsérvese que existen dos notaciones diferentes para referirse a las combinaciones, una CN, X y la otra como una matriz de 2×1. Las combinaciones reciben también el nombre de coeficientes binomiales pues corresponden a los coeficientes del llamado binomio de Newton. En la Unidad 6, veremos nuevamente estos coeficientes durante el estudio de la distribución de probabilidades binomial. Ejemplo #15: En un curso de 20 alumnos de Estadística de la EAN deseamos formar un equipo de fútbol de 11 jugadores. El orden en que seleccionemos los alumnos no tiene importancia, sino que lo que importa es solamente cuales son los alumnos elegidos. La pregunta es entonces ¿cuántos equipos diferentes de 11 alumnos se podrían formar a partir de ese grupo de 20 estudiantes? Solución: Como no importa el orden, la cantidad de equipos diferentes viene dada por la combinatoria de 20 alumnos tomados de a 11. En símbolos:

 20  20 ! C 20,11      167.960  11  (20 – 11) ! 11! La respuesta quizás sorprenda, ya que la cifra es enorme: hay ciento sesenta y siete mil novecientos sesenta equipos de fútbol distintos que podrían formarse con los 20 alumnos de Estadística de la EAN! Esta cifra realmente enorme da cuenta de la velocidad con que crece la función factorial, razón por la cual la mayoría de las calculadoras científicas en plaza solo pueden computar hasta 69!, ya que el siguiente factorial (70!) excede el rango del display. Ejemplo #16: En un paquete hay veinte 20 tarjetas perforadas marcadas con los números 101, 102, 103, ..., 120. Las tarjetas están dispuestas arbitrariamente en el paquete. Si se extraen 2 tarjetas al azar, ¿Cuál es la probabilidad de extraer las tarjetas 101 y 120? (Obsérvese que el

orden de extracción de las tarjetas no es importante, ya que da lo mismo extraer las tarjetas 120 y 101 o las 101 y 120. Se trata, por lo tanto, de combinaciones) Solución: Como siempre, la probabilidad buscada es el cociente del número de casos favorables dividido el número de casos totales (definición clásica) Hay un solo caso favorable, y los casos posibles son las combinaciones de 20 tarjetas tomadas de a 2, en símbolos:

 20 

20 !

Casos Totales: C 20, 2      190  2  (20 – 2) !  2 ! Luego la probabilidad es: P 

1  0,00526 una probabilidad ciertamente muy baja. 190

Ejemplo #17: El conocido juego de azar del LOTO consiste en acertar 6 números de un total de 45 disponibles. Los números no se pueden repetir, y el orden en que los seleccionemos no importa. Por lo tanto estamos ante un problema de combinaciones. La cantidad de boletas diferentes que pueden formarse en este juego está dada por:

 45  45 ! C 45, 6      8.145.060  6  (45 – 6) !  6 ! Por lo tanto la probabilidad de acierto es insignificante y corresponde a:

P(acierto) 

1  0,00000012277 8.145.060

Los alumnos de Estadística harían bien en no jugar nunca más a este juego que tiene una probabilidad tan extremadamente baja de acierto! Ejemplo #18: Para cubrir 3 puestos de trabajo se presentan 4 hombres y 6 mujeres. ¿Cuál es la probabilidad de que los puestos sean cubiertos exclusivamente por mujeres? Solución: Como siempre, la probabilidad buscada es el cociente del número de casos favorables dividido el número de casos totales (definición clásica) Como suponemos que los pues-tos de trabajo son todos iguales, entonces no importa el orden en que las personas sean seleccionadas, y como naturalmente las personas no se repiten, estamos ante un problema de combinaciones. Los casos favorables y totales son respectivamente: Casos favorables:

Casos totales:

6 6! C6, 3      20  3  (6 – 3) !  3 !

10  10 ! C10, 3      120  3  (10 – 3) !  3 !

Por lo tanto la probabilidad buscada es:

P(solo mujeres) 

20  0,167 120

Ejemplo #19: En un taller trabajan 10 personas, 6 hombres y 4 mujeres. Si se seleccionan 7 personas para enviarlas a un curso de capacitación técnica. ¿Cuál es la probabilidad de que en el grupo de 7 personas haya exactamente 3 mujeres (y, por lo tanto, 4 hombres)? Solución: Como siempre, la probabilidad buscada es el cociente del número de casos favorables dividido el número de casos totales (definición clásica) Como suponemos que las vacantes para el curso son equivalentes, entonces no importa el orden en que las personas sean seleccionadas, y como naturalmente las personas no se repiten, estamos ante un problema de combinaciones. Debemos calcular los casos favorables y totales. Casos favorables: Para formar el grupo de 7 personas (3 M y 4 H) a las mujeres las puedo elegir entre las 4 y las maneras posibles serían:

4 4! C 4 , 3     4  3  (4 – 3) !  3 ! y a los 4 hombres que integrarán el grupo de capacitación los puedo elegir entre 6 hombres de las siguientes maneras posibles:

6 6! C6, 4      15 .  4  (6 – 4) !  4 ! Por lo tanto, existen un total de 4×15 = 60 formas diferentes en que se pueden formar los grupos con 3 mujeres y 4 hombres. Casos totales: Para formar el grupo de 7 personas de un total de 10, sin importarnos el sexo de los seleccionados, las posibles maneras serían:

10  10 ! C10, 7      120  7  (10 – 7) !  7 ! Por lo tanto la probabilidad deseada puede calcularse como:

P(3 mujeres y 4 hombres) 

4 15 60   0,5 120 120

Variaciones con repetición En todos los casos analizados hasta ahora (permutaciones, variaciones, y combinaciones), los objetos no se repetían. Existen sin embargo situaciones donde los objetos pueden repetirse, generándose entonces las llamadas variaciones con repetición. Si bien estos casos son menos frecuentes en las aplicaciones de interés para este curso de Estadística, conviene referirnos brevemente a ellos con un par de ejemplos. Ejemplo #20: Imaginemos un pueblo de un pequeño país en el que deciden diseñar una nueva chapa patente para los automóviles. Se opta por una patente de cuatro caracteres, compuesta solo de letras. Dejando de lado la Ñ que se presta a confusión, el alfabeto latino está compuesto por 26 letras. La pregunta entonces es ¿cuantas chapas patente diferentes de 4 caracteres se pueden generar con 26 letras?

Solución: Evidentemente las letras pueden repetirse, ya que por ejemplo la patente ABBA es una patente válida; el problema es entonces diferente a las variaciones analizadas anteriormente. Para encontrar la solución pensemos a la chapa patente como 4 casilleros los cuales se pueden llenar con letras, tal como ilustra el siguiente dibujo: L

L

L

L

Evidentemente, cada casillero se puede llenar con cualquiera de las 26 letras del alfabeto, y como éstas se pueden repetir, resulta que la cantidad total de chapas patente diferentes que se pueden generar, correspondientes a las llamadas variaciones con repetición, es: N = 26×26×26×26 = (26)4 = 456.976 Ejemplo #21: Analicemos ahora la nueva chapa patente de la República Argentina, la que está compuesta de 3 letras seguidas de 3 dígitos. Las letras van de la A a la Z (sin la Ñ) y los dígitos del 0 al 9, y tanto letras como números pueden repetirse. Tenemos pues un total de 26 letras para los primeros 3 casilleros, y 10 números para los últimos 3. L

L

L

N

N

N

El número total de chapas patentes diferentes que pueden generarse con este modelo es entonces: N = 26×26×26×10×10×10 = (26)3×(10)3= 17.576.000 Un análisis preliminar indica que si el país no hubiera caído en una profunda crisis, y se hubieran seguido fabricando automóviles a razón de 400.000 por año, el nuevo modelo de chapa hubiera podido absorber las patentes de tan solo unas pocas décadas. ¡Quizás nuestros legisladores debieran saber más Estadística!

Distribuciones de probabilidad Distribuciones discretas Si tenemos una variable X que puede tomar valores X1, X2, ..., XN, con probabilidades P(X1), P(X2), ..., P(XN), de modo que P(X1) + P(X2) +...+ P(XN) = 1, entonces decimos que tenemos definida una distribución de probabilidad discreta para la variable X. Es muy importante señalar que para que P(Xi) represente una verdadera distribución de probabilidad, los diferentes valores Xi deben ser exhaustivos, es decir deben cubrir todos los posibles valores de la variable X, y además la suma de todas las probabilidades P(X i) debe dar uno (condición de normalización). En símbolos: S = {X1, X2, ..., XN} P(Xi) = 1 Ejemplo #22: Si tenemos un dado correctamente balanceado, los posibles resultados, y las correspondientes probabilidades son:

X P(X)

1 1/6

2 1/6

3 1/6

4 1/6

5 1/6

6 1/6

Evidentemente, este ejemplo resulta muy sencillo ya que como el dado no está cargado, las probabilidades de cualquier resultado son idénticas. Vemos además que se verifica la condición de normalización, ya que: P(Xi) = 1/6 + 1/6 + 1/6 + 1/6 + 1/6 + 1/6 = 6/6 = 1 El siguiente ejemplo, algo más interesante, ilustra un caso donde las probabilidades de los diferentes resultados no son iguales: Ejemplo #23: El conocido juego del Pase Inglés consiste en arrojar dos dados. Si la suma de los resultados de cada dado es igual o mayor que 7, gana la banca y el jugador pierde. Los posibles resultados del juego van de 2 (cuando ambos dados marcan 1) a 12 (cuando ambos dados marcan 6). Sin embargo no todos los resultados son igualmente probables. Efectivamente, hay una sola manera de sumar 2 y esto ocurre cuando en ambos dados sale el número 1, tal como ilustra el siguiente esquema: 1+1=2 En cambio, hay dos formas de sumar 3, dadas por las siguientes combinaciones: 1+2=3 2+1=3 Análogamente, hay tres formas de sumar 4, dadas por: 1+3=4 2+2=4 3+1=4 Análogamente, hay cuatro formas de sumar 5, dadas por: 1+4=5 2+3=5 3+2=5 4+1=5 Podemos continuar contando las diferentes formas de lograr todos los posibles resultados hasta llegar al máximo puntaje, las que resumimos en la siguiente tabla: X Formas

2 1

3 2

4 3

5 4

6 5

7 6

8 5

9 4

10 3

11 2

12 1

Por otra parte, como cada resultado individual de cada dado tiene una probabilidad de ocurrencia de 1/6, y como los resultados de cada dado son sucesos independientes, tenemos entonces que la probabilidad de cada resultado compuesto esta dada por la ley del producto de probabilidades para sucesos independientes:

P( X1, X 2 )  P( X1)  P( X 2 ) 

1 1 1   6 6 36

Por lo tanto, si ahora tabulamos la distribución de probabilidades para el juego del Pase Inglés obtenemos: X P(X)

2 1/36

3 2/36

4 3/36

5 4/36

6 5/36

7 6/36

8 5/36

9 4/36

10 3/36

11 2/36

12 1/36

Es interesante observar que si bien todos los resultados de cada dado son equiprobables, por el contrario la suma de los dos resultados no lo es. En efecto, vemos que la suma igual a 7 es la que tiene mayor probabilidad de salir, ya que esta suma se puede obtener de 6 maneras diferentes (cada una con probabilidad 1/36), en tanto que los resultados 1 y 12 son los menos probables pues se pueden obtener de una sola manera. Verifiquemos ahora que se cumple la condición de normalización: P(Xi) = 1/36 + 2/36 + 3/36 + 4/36 + 5/36 + 6/36 + 5/36 + 4/36 + 3/36 + 2/36 + 1/36 = 1 Veamos ahora por qué es más probable que gane la banca. En efecto, la banca gana cuando se obtiene siete o más, y si sumamos las probabilidades de estos resultados obtenemos: P(Xi  7) = 6/36 + 5/36 + 4/36 + 3/36 + 2/36 + 1/36 = 21/36  0,5833 Es decir que la banca tiene estadísticamente un 58,33% de probabilidades de ganar frente al 41,67% del jugador, por lo que a lo largo de muchas jugadas del día, la banca siempre gana. En la Unidad 6 estudiaremos en más detalle dos importantes distribuciones de probabilidades discretas, llamadas Binomial y de Poisson.

Distribuciones continuas Las ideas básicas de las distribuciones discretas se extienden en forma natural al caso de las variables continuas, es decir al caso de aquellas variables que pueden tomar un conjunto continuo de valores dentro de un rango determinado. En estos casos el polígono de frecuencias tiende a convertirse en una curva suave continua llamada distribución de probabilidad continua. La condición de normalización se expresa diciendo que el área bajo la curva hasta el eje X debe valer la unidad. En la Unidad 7 estudiaremos en detalle una distribución de probabilidad continua de suma importancia llamada Distribución Normal de Gauss.

Esperanza, varianza, y desvío estandar Si tenemos una variable aleatoria discreta X, y su correspondiente distribución de probabilidad discreta P(X), definimos la esperanza matemática como:

E( X)     X  P( X)

Si recordamos que la probabilidad P(X) coincide con la frecuencia relativa de ocurrencia del suceso X, comprenderemos que el significado de la esperanza matemática no es otro que el del valor más probable o valor esperado de la variable X, y coincide con el concepto de la media aritmética estudiado en Estadística Descriptiva. Análogamente definimos la varianza como: 2

VAR( X)   2   X     P( X) Y finalmente al desvío estándar como:

DS( X)    VAR( X) 

 X   2  P( X)

Los significados, tanto de la varianza como del desvío estándar, son los mismos que en Estadística Descriptiva, y permiten cuantificar la dispersión de la distribución alrededor del valor esperado. A modo de aplicación, dejamos al lector verificar que para el caso del ejemplo #23 del juego del Pase Inglés, la esperanza, varianza, y desvío estándar son respectivamente: E(X) = 7

VAR(X) = 210/36  5,833

DS(X)  2,415

Podemos extender las nociones de esperanza, varianza, y desvío estándar a variables aleatorias continuas, pero esta extensión requiere de herramientas de Cálculo Diferencial e Integral, que exceden el nivel del presente curso, por lo que omitiremos su tratamiento detallado. No obstante, en la Unidad 7, cuando encaremos el estudio de la Distribución Normal de Gauss, volveremos a los conceptos de esperanza y desvío estándar para esta importantísima variable aleatoria continúa.
5 Teoría elemental de las probabilidades

Related documents

20 Pages • 7,084 Words • PDF • 1.5 MB

247 Pages • 94,412 Words • PDF • 951.5 KB

56 Pages • 9,362 Words • PDF • 15.9 MB

258 Pages • 124,803 Words • PDF • 2.2 MB

23 Pages • 8,511 Words • PDF • 250.3 KB

2 Pages • 761 Words • PDF • 79 KB

753 Pages • 215,063 Words • PDF • 3.1 MB