1. TEOREMA DE BAYES
O
PROBABILIDAD
CONDICIONAL
WERNER RUBEN GRANADOS NAVARRO
Evento A Evento B
Evento B con
Probabilidad P(B)
Evento A ∩∩∩∩ B
Evento A ∩∩∩∩ B con probabilidad P(A ∩∩∩∩ B)
P(A ∩∩∩∩ B)
Por lo que P(A|B) = P(B)
2. INTRODUCCION
Las probabilidades son una herrramienta numérica que nos permiten conocer las
posibilidades de que obtengamos un resultado en un evento definido, de este hecho
podemos tomar una base razonable para optar por una desición según optimicemos
nuestras posibilidades. En esta pequeña revisión bibliogáfica abordamos las
probabilidades conjuntas y el teorema de Bayes, que son probabilidades aplicadas a
situaciones en donde no sólo existe una probabilidad natural, sino que producto de la
investigación ó análisis obtenemos una segunda relacionada y tenemos que aprobecharla
para encontrar nuestros datos más correctos y elaborados. Estas dos probabilidades nos
permiten un método de razonamiento basado en el análisis de cada parte de la
probabilidad y sus relaciones.
Hemos tratado de incluir por lo menos tres bibliografías, que no son suficientes debido
al tiempo en que se realizó ésta, empero creo que nos brindan una buena base para
comprender el tema.
3. PROBABILIDAD CONDICIONAL
La probabilidad condicional se da cuando se cumplen dos eventos, un evento que
llamaremos la probabilidad inicial P(A), y sabemos que ocurrió otro evento
relacionado que llamaremos P(B). Se desea aprovechar la nueva información para
calcular la nueva probabilidad revisada para el evento A.
La expresión matemática nueva esta dada por P(A|B). La “|” significa que estamos
considerando la probabilidad de A dada la condición de que ha ocurrido el evento B. Y
se lee la probabilidad de A dado B.
Formularemos la siguiente expresión que define la probabilidad condicional para A
dado B, y para B dado A, a saber1
:
P(A ∩∩∩∩ B)
P(A|B) = P(B)
P(A ∩∩∩∩ B)
P(B|A) = P(A)
Para que esto tenga validez y significado los denominadores no pueden ser iguales a
cero.
Dado que estos valores expresan la probabilidad de la intersección de los eventos, estas
reciben el nombre de probabilidades conjuntas. Esto lo podemos observar más
claramente en un diagrama de Venn:
Más adelante se da a conocer más sobre las probabilidades conjuntas y las
probabilidades marginales. También veremos que se utiliza la ley de la
multiplicación para encontrar la probabilidad de una intersección de dos eventos. Esta
1
Anderson, D. Métodos Cuantitativos para Negocios. 7ma ed. México, Thomson, 1999. p.38-42
Evento A Evento B
Evento B con
Probabilidad P(B)
Evento A ∩∩∩∩ B
Evento A ∩∩∩∩ B con probabilidad P(A ∩∩∩∩ B)
P(A ∩∩∩∩ B)
Por lo que P(A|B) = P(B)
4. se deriva de la probabilidad condicional. Es útil cuando conocemos las probabilidades
como P(A), P(B), P(A|B) ó P(B|A) y desconocemos P(A ∩ B). obtenemos:
P(A ∩∩∩∩ B) = P(A|B)P(B)
P(A ∩∩∩∩ B) = P(B|A)P(A)
En el paso tercero del teorema de Bayes se aplica esta ley de la multiplicación.
En el caso especial de que los eventos sean independientes la ley de la multiplicación
quedaría así:
P(A ∩∩∩∩ B) = P(A)P(B)
Cuando los casos son mutuamente excluyentes2
entonces diremos que: De modo que
si P(A) y P(B) son mutuamente excluyentes, entonces P(A|B) = 0
.
Si P(A) + P(B) denota el suceso de que ocurra A ó B ó ambos a la vez, entonces:
P(A+ B) = P(A) + P(B) – P(AB).
ANALISIS BAYESIANO O TEOREMA DE BAYES
El teorema de Bayes es un proceso para efectuar el cálculo de probabilidades, se
caracteriza por tener algunos pasos como son3
:
2
Spiegel, M. Estadística. 2da ed. España, McGraw Hill,1991. p131.
3
Anderson, D., et al. Métodos cuantitativos para los negocios. 7ma ed. México Thompson,1999. p . 43
PROBABI-
LIDADES A
PRIORI
INFORMA-
CION
NUEVA
APLICA-
CION DEL
TEOREMA
DE BAYES
PROBABI-
LIDADES
POSTERIOR
ES
5. La estructura de un análisis Bayesiano debería de componerse así4
:
Decisión de no seguir tomada sin necisidad de
investigación adicional.
Decisión de seguir tomada sin necesidad de
investigación adicional.
Búsqueda de información adicional antes de tomar la
decisión; usar una muestra pequeña (proyecto de
investigación 1).
Búsqueda de ilnformación adicional antes de tomar
la decisión:; usar una muestra mediana (proyecto de
investigación 2).
Búsqueda de información adicional antes de tomar
una decisión ; usar una muestra grande (proyectode
investigación 3).
Esto confirma que en el análisis de la probabilidad condicional existe una fase
importante que es la revisión de las probabilidades al obtener nueva infomación, tal y
como se muestra en el diagrama anteiror, se puede tomar la desición de seguir o no
seguir sin que sea necesaria una investigación previa, y si debemos hacer la
investigación que modelo vamos a optar y lo más importante cuanto vale esa
información. El resultado de esta investigación nos proporciona la nuevas
probabilidades que son conocidas como probabilidades posteriores.
PRIMER PASO: ESTABLECIMIENTO DE PROBABILIDADES PREVIAS O
PRIORI.
Estas probabilidades son aquellas que un mercadólogo o gerente asigna a la posible
existencia de cada condicion natural y son anteriores a la obtención de información
adicional. El método para asignarlas puede ser el clásico, el de frecuencia relativa o el
subjetivo. En el ejemplo del libro tenemos que se tienen dos proveedores “1” y “2”; La
probabilidad a priori que se le asigna es de P(A1)= 0.65, y para p(A2) = 0.35.
PASO DOS: DETERMINACION DE LAS PROBABILIDADES
CONDICIONALES PARA DIFERENTES RESULTADOS DE LA PRUEBA.
Estos datos se recopilan de un proyecto de investigación de muestras pequeñas, los
resultados pueden mostrtar una participación en el mercado E1, E2, ...Ek Estas
condiciones que debe satisfacerse en el análisis. En el análisis del libro se da un
ejemplo en el cual por datos históricos de la empresa se sabe que la probabilidad de
4
Boyd, H. Investigación de Mercados. 5ta edición, México, ed. Limusa, 1990. p. 222.
Problemas o
situación de
oportunidad
6. obtener piezas buenas del proveedor 1 es de 0.98 y malas del 0.02; así del proveedor 2
tendríamos piezas buenas en el 0.95 y malas en un 0.05
PASO TRES: CALCULO DE PROBABILIDADES CONJUNTAS.
Si el mercadólogo supiera cuál de las condiciones naturales existía realmente, no sería necesario una
investigación. Sin embargo se realiza la investigación por la ilncertidumbre. Esta probabilidad conjunta
no es más que la combinación de la probabilidad natural a priori con la probabilidad condicional. Se
trata de la probabilidad conjunta de que exista cierta condición natural y de que la investigación de un
mercado de prueba, si se efectúa, proporcione un deeterminado resultado. Para el ejemplo del libro
tenemos que para el proveedor 1 tenemos piezas buenas y piezas malas que se representan
algebraicamente así: P(A1) para el proveedor 1 en su condición a priori. P(G/A1) para los productos
buenos del proveedor 1, y p(B/A1) para los productos malos en su probabilidad condicionada, de esta
cuenta tendremos para nuestra probabilidad conjunta lo siguiente:
P(A1 ∩∩∩∩ G) = P(A1) P(G/A1)= 0.65*0.98 = 0.637
P(A1 ∩∩∩∩ B) = P(A1) P(B/A1)= 0.65*0.02 = 0.13
P(A2 ∩∩∩∩ G) = P(A2) P(G/A2)= 0.35*0.95 = 0.3325
P(A2 ∩∩∩∩ B) = P(A2) P(B/A2)= 0.35*0.05 = 0.0175
Esquematizado en el árbol de probabilidades obtendríamos:
PASO 1 PASO 2 PASO 3
(PROVEEDOR) (CONDICION) PROBABILIDAD DE RESULTADO
P(A1) P(G/A1) = 0.637
P(A1) P(B/A1) = 0.13
P(A2) P(G/A2) = 0.3325
P(A2) P(B/A2) = 0.0175
P(G/A1)
0.98
P(B/A2)
0.05
P(G/A2)
0.95
P(B/A1)
0.02
P(A1) 0.65
P(A2) 0.35
7. PASO 4. ESTIMACION DE QUE SE DEN LOS RESULTADOS DE UNA
INVESTIGACION (PROBABILIDADES MARGINALES).
Las probabilidades conjuntas o probabilidades de resultado anteriores se utilizan para
estimar la probabilidad dds que se de el resutlado E1, E2 ..Ek de la investigación.A cada
una de estas probabilidades se le llama probabilidad marginal. Asi tendremos para
nuestro ejemplo que se de la probabilidad de obtener piezas malas:
Proveedor 1 piezas malas = 0.0130
Proveedor 2 piezas malas = 0.0175
0.0305 a este resultado lo llamaremos P(B)
La probabilidad que resulten piezas malas es de 0.0305, ya que representa todas las
condiciones naturales que pueden existir. Por lo lque se puede deducir que esla mejor
estimación de que puedan existir piezas malas.
QUINTO PASO: CALCULOS DE LAS PROBABILIDADES A POSTEIORI.
Este análisis comprende el cálculo de las probabilidades a posteriori que en este caso
haremos una razón para averiguar la pr9obabilidad de piezas malas, siendo el
denominador P(B), y el numerador va ha variar si queremos saber sobre el proveedor 1
que sería P(A1 ∩∩∩∩ B), y para el proveedor 2 sería de P(A2 ∩∩∩∩ B).
Nuestra fórmula sería:
P(A1 ∩∩∩∩ B)
P(B/A1) = P(B)
P(A1 ∩∩∩∩ B) = P(A1)P(B/A1)
P(A2 ∩∩∩∩ B)
P(B/A2) = P(B)
P(A2 ∩∩∩∩ B) = P(A1)P(B/A2)
Sustituyendo valores tendremos:
0.65*0.02 . = 0.4262
P(A1/B) = 0.0305
0.35*0.05 . = 0.5738
P(A2/B) = 0.0305
Tabularmente obtendríamos:
9. CONCLUSIONES
1. La probabilidad conjunta es el cálculo de la probabilidad cuando han por lo
menos dos eventos relacionados y es deseable aprovechar los dos elementos para
obtener nuestra información. La fórmula básica es:
P(A ∩∩∩∩ B)
P(A|B) = P(B)
P(A ∩∩∩∩ B)
P(B|A) = P(A)
2. La ley de la multiplicación se deriva de la probabilidad condicional y cumple la
siguiente función:
P(A ∩∩∩∩ B) = P(A|B)P(B)
P(A ∩∩∩∩ B) = P(B|A)P(A)
3. El teorema de Bayes es un análisi de la probabilidad condicional en donde se
deben cumplir los siguientes pasos: 1) Determinar las probabilidades a priori.
2) Obtener la información nueva. 3) Cálculo de las probabilidades conjuntas. 4)
Obtener las probabilidades marginales, 5) Cálculo de las probabilidades a
posteriori, etc.
4. En la ejecución de los pasos del teorema de Bayes son aplicables las fórmulas de
la probabilidad condicional.
10. BIBLIOGRAFIA:
1. Anderson, D., et al. Métodos cuantitativos para los negocios. 7ma ed. México Thompson,1999.
p . 38-47
2. Boyd, H. Investigación de Mercados. 5ta edición, México, ed. Limusa, 1990. p. 211-241
3. Spiegel, M. Estadística. 2da ed. España, McGraw Hill,1991. p 129-131.