• Save
Variables aleatorias y distribuciones de probabilidad
Upcoming SlideShare
Loading in...5
×

Like this? Share it with your network

Share

Variables aleatorias y distribuciones de probabilidad

  • 4,878 views
Uploaded on

Abstract--- En este paper empezamos profundizando la importancia que tiene la probabilidad en el campo de la ingeniería, ya que la probabilidad nos ayuda a modelar experimentos que muchas veces......

Abstract--- En este paper empezamos profundizando la importancia que tiene la probabilidad en el campo de la ingeniería, ya que la probabilidad nos ayuda a modelar experimentos que muchas veces dependen de una aleatoriedad, como parte teórica profundizamos en las formulas básicas de las leyes de la probabilidad que nos harán falta para el desarrollo del problema que será posteriormente descrito, después no enfocamos en encontrar una aplicación práctica del tema “las variables aleatorias y distribuciones de probabilidad”, pero esta aplicación guiada no solo a la teoría de la probabilidad, si no más bien enfocada a lo que es la ingeniería eléctrica, para ello entramos un poco en lo que es una línea de transmisión para en nuestro caso enviar una señal, que al sumarle una señal de ruido nos dará la señal de salida resultante; veremos lo útil que son las funciones de densidad de probabilidad que nos ayudarán a modelar una señal de ruido ya que en la vida real una señal puede estar descrita matemáticamente por una función periódica que nos dará una aproximación muy grande a lo que se pude encontrar n la realidad, habiendo visto esto se procederá a plantear un problema practico y luego a su desarrollo detallado.

More in: Education
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
No Downloads

Views

Total Views
4,878
On Slideshare
4,852
From Embeds
26
Number of Embeds
1

Actions

Shares
Downloads
0
Comments
1
Likes
4

Embeds 26

http://148.202.89.34 26

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. 1 Variables Aleatorias y Distribuciones de Probabilidad Pedro Francisco Rodas Rivera, Autor Ingeniería Eléctrica, Universidad Politécnica Salesiana Cuenca, Ecuador prodas@est.ups.edu.ec Abstract—En este paper empezamos profundizando la impor- II. M ARCO TEÓRICOtancia que tiene la probabilidad en el campo de la ingeniería,ya que la probabilidad nos ayuda a modelar experimentos que A. Probabilidadmuchas veces dependen de una aleatoriedad, como parte teórica La forma más sencilla de describir a la probabilidad seríaprofundizamos en las formulas básicas de las leyes de la proba- decir que es la posibilidad (dada en forma numérica) de quebilidad que nos harán falta para el desarrollo del problema queserá posteriormente descrito, después no enfocamos en encontrar ocurra un evento, a la vez que sabemos que esta posibilidaduna aplicación práctica del tema “las variables aleatorias y está comprendida entre 0 y 1, es decir que mientras menor seadistribuciones de probabilidad”, pero esta aplicación guiada no la probabilidad de que un evento ocurra esta se aproximarásolo a la teoría de la probabilidad, si no más bien enfocada a a 0 y podemos darle el nombre de probabilidad de unalo que es la ingeniería eléctrica, para ello entramos un poco imposibilidad cuando este valor sea 0; por otro lado mientrasen lo que es una línea de transmisión para en nuestro casoenviar una señal, que al sumarle una señal de ruido nos dará la mayor sea la probabilidad de que un evento ocurra esta seráseñal de salida resultante; veremos lo útil que son las funciones más cercana a 1 y podemos darle el nombre de probabilidadde densidad de probabilidad que nos ayudarán a modelar una de certeza cuando el valor de la probabilidad sea 1.señal de ruido ya que en la vida real una señal puede estardescrita matemáticamente por una función periódica que nos P (evento cierto) = 1dará una aproximación muy grande a lo que se pude encontrarn la realidad, habiendo visto esto se procederá a plantear unproblema practico y luego a su desarrollo detallado. P (evento imposible) = 0 Index Terms—probabilidad, eventos, experimento, espaciomuestral, posibilidades, variables aleatorias, discreta, continua, ∴ 0 ≤ P (Ei ) ≤ 1 (1)distribuciones de probabilidad, función de distribución acumu-lada, función de masa de probabilidad, función de densidad de donde Ei es algún evento cualquiera, ver [1].probabilidad, múltiples variables aleatorias, función de transfer-encia, señales, ruido B. Experimento Viene del proceso que produce un evento, y se lo denomina I. I NTRODUCCIÓN como toda acción bien definida que nos da un resultado único Sin tener en cuenta la profesión que se haya elegido, bien definido, ver [1].una cosa siempre será segura: en nuestra vida profesionalestaremos expuestos a la toma de decisiones, las cuales C. Espacio muestralmuchas veces tendremos que hacer sin saber con exactitud Se lo puede definir como el conjunto de todas las posibleslas consecuencias de dichas decisiones, al utilizar la probabil- medidas o resultados de un experimento y lo denotamos conidad, la estadística y sus diferentes modelos podemos reducir la letra S, ver [1].enormemente la incertidumbre para dicha toma de decisiones. Enfocándonos más en el área de la ingeniería, nos hacemos Ejemplo 1. Variabilidad de los elementos electrónicosla pregunta por qué el ingeniero necesita estudiar las leyesde la probabilidad y la estadística?, esto sin duda es por Considerando la variabilidad en los valores de los elementosque la teoría de la probabilidad que antiguamente se utilizaba electrónicos de un circuito RC (filtro pasa bajos), comosolamente para encontrar las probabilidades en los juegos de se representa en la Figura 1. Suponiendo que los valoresazar, hoy en día a tenido un desarrollo mucho más extenso exactos de R y C no son perfectamente controlados por elen el área matemática, de modelado y de análisis; por lo que fabricante, pero sabiendo que satisfacen [95 ≤ R ≤ 105] Ω ypodemos estar seguros de que ayudarnos en la teoría de la [300 ≤ C ≤ 340] µF .probabilidad nos proporcionará una poderosa herramienta para Esto por lo tanto nos indica que el espacio muestral estáel rato de explicar, modelar, analizar y diseñar los diferentes comprendido entre los pares ordenados de los números realessistemas tecnológicos desarrollados por los ingenieros eléctri- (r, c) donde 95 ≤ r ≤ 105 y 300 ≤ c ≤ 340. Ycos, electrónicos y de sistemas. simbólicamente escribimos al espacio muestral como:
  • 2. 2 S = {95 ≤ r ≤ 105 y 300 ≤ c ≤ 340} 2) Variable aleatoria continua: Una variable aleatoria con- tinua se encuentra comprendida en un rango de valores cua-el cual está representado en la región rectangular, como se lesquiera, pero estos pueden asumir un número infinito derepresenta en la Figura 2. valores que se pueden medir, ver [7]. Ejemplos: • El peso en gramos de una moneda. • Las dimensiones de un vehículo.Figura 1. Filtro RC pasa bajos E. Distribuciones de probabilidad La distribución de probabilidad nos muestra todos los val- ores obtenidos como resultado del experimento y asigna un valor de probabilidad a cada uno de los resultados, ver [2], [8]. Ejemplo 3. Lanzamiento de una monedaFigura 2. Espacio muestral para los posibles valores de R y C Supongamos que lanzamos una moneda no alterada al aire dos veces, y estamos interesados en formular el número de sellos que podríamos obtener del experimento de lanzar laD. Variable aleatoria moneda dos veces. Como sabemos que son solo dos lanzamientos los únicos Es una variable cuyo valor es el resultado de un evento posibles resultados serían SS, SC, CC y CS; como sabemosaleatorio, para la mayoría de aplicaciones tecnológicas, la que en cada lanzamiento hay un 50% de probabilidad de quemedición y observación de datos es expresada de forma salga cara y 50% de que salga sello entonces la probabilidadnumérica, a estas mediciones que tiene una variabilidad in- de cada una es 0.5, la tabla 2 ilustra los resultados y nosdefinida cada vez que se repiten se las conoce como variable muestra la probabilidad obtenida para cada caso.aleatoria; una variable aleatoria X es una función que asigna Ahora podemos empezar por anotar los resultados que noun número real x a cada uno de sus valores en el espacio tengan ningún sello (el tercero), luego los resultados quemuestral de un experimento aleatorio, ver [2], [3], [4], [5], contengan solo un sello (segundo y cuarto), y por último el[6]. resultado que obtuvo dos sellos (el primero), la tabla 3 nos muestra estos valores y su respectiva probabilidad. SabiendoEjemplo 2. Un juego de apuestas que la tabla 3 no muestra el resultado real del experimento, si Un jugador paga $1.50 para jugar el siguiente juego: Una no el resultado teórico del mismo.moneda es lanzada hacia el aire tres veces y se cuenta el Tabla 2. Posibles resultados de lanzar una moneda dos vecesnúmero de caras X. El jugador recibe $1 si X = 2 y $8si X = 3, pero no recibe nada si sale cualquier otro caso. 1er lanz. 2do lanz. # de sellos en 2 lanz. ProbabilidadAhora hagamos que Y sea el premio que el jugador recibe, si S S 2 0.5 × 0.5 = 0.25Y es una función de la variable aleatoria X y sus resultados S C 1 0.5 × 0.5 = 0.25pueden estar dados por el proceso de experimentos aleatorios C C 0 0.5 × 0.5 = 0.25dados por el espacio muestral siguiente: C S 1 0.5 × 0.5 = 0.25 1.00 Tabla 1. Espacio muestral del ejemplo 2 Tabla 3. Distribución de probabilidad del número posible de sellos ζ: CCC CCS CSC SCC CSS SCS SSC SSS X (ζ) : 3 2 2 2 1 1 1 0 # de sellos lanzamientos P(S) Y (ζ) : 8 1 1 1 0 0 0 0 0 (C, C) 0.25de este experimento aleatorio podemos observar que Y es la 1 (S, C) + (C, S) 0.50variable aleatoria y que esta toma los valores en el espacio 2 (S, S) 0.25muestral de SY = {0, 1, 8}. 1) Variable aleatoria discreta: Una variable discreta pro-porciona datos cuantitativos discretos (respuestas numéricas)que resultan del proceso de conteo, ver [7]. Ejemplos: • El número de caras en cinco lanzamientos de una mon- eda. Figura 3. Distribución de probabilidad del número de sellos obtenidos en dos • El número de circuitos en una computadora. lanzamientos de una moneda no alterada
  • 3. 3 1) Función de distribución acumulada (fda): La (fda) se G. Distribuciones de probabilidad para la variable aleatoriadiferencia de la (fmp) y de la (fdp) por que no está restringida continuaa variable aleatorias discretas o continuas sirve para todas las La distribución de probabilidad continua es aquella dondevariables aleatorias, esta está dada en términos del evento las variables pueden tomar valores continuos, es decir que{X ≤ x}, si una F (x) cumple con la siguiente formula están determinados en un rango dado, como podemos observarpodemos decir que es una (fda), ver [9]: en la figura 5 que estamos tomando solo un segmento del área bajo la curva desde un X1 hasta un Xn ya que esta puede ser F (x) = P [X ≤ x] , para -∞ < x < ∞ (2) infinita, se las conoce más como funciones de densidad, ver [10], [14]. Más adelante detallaremos la (fda) para cada una de lasvariables aleatorias.F. Distribuciones de probabilidad para la variable aleatoriadiscreta Figura 5. Representación gráfica de una función de distribución de probabil- La distribución de probabilidad discreta es la que puede idad continuatomar valores solo valores discretos, es decir un número A diferencia de las variables aleatorias discretas que selimitado de valores, como se ve en la figura 4 la función toma representan de forma tabular, para las variables aleatoriasdiferentes valores X1 X2 hasta Xn pero cada uno está dado continuas necesitamos representar a la probabilidad como elpor un número real, ver [10], [11]. área bajo la curva que está comprendida entre un intervalo, como se observa en la figura 5, ya que para la mayoría de los casos la función de densidad toman forma de curvas que pueden ser comprendidas en un rango delimitado por un valor de las ordenadas x = a y x = b. 1) Función de densidad de probabilidad (fdp): La función de densidad de probabilidad de X, si existe está definida como la derivada de la función FX (x), ver [15]:Figura 4. Representación gráfica de una función de distribución de probabil- dFX (x)idad discreta fX (x) = (7) dx 1) Función de masa de probabilidad (fmp): También cono- La (fdp) es una forma alternativa mucho más eficiente ycida como función de probabilidades o distribución de proba- útil de especificar la información contenida en una (fda), labilidad del conjunto de pares ordenados [x, f (x)], es cuando (fdp) representa la densidad de probabilidad en un punto xuna variable aleatoria discreta X toma varios valores x, está de manera que la probabilidad que tiene X en pequeñosdefinida en terminos del evento {X = x}, y si una función intervalos en las proximidades de x está en terminos del eventof (x) cumple con las siguientes tres propiedades, que además {x < X ≤ x + h} y nos da como resultado:nos sirven para el cálculo de la probabilidad podemos decirque es una (fmp), ver [11], [12], [13]: P [x < X ≤ x + h]] = FX (x + h) − FX (x) f (x) ≥ 0 (3) FX (x + h) − FX (x) P [x < X ≤ x + h]] = h (8) h Si la (fda) tiene una derivada en x, entonces según h decrese, tenemos, como se ve en la figura 6: f (x) = 1 (4) x P [x < X ≤ x + h] fX (x) h (9) Por lo tanto si fX (x) representa la “densidad” de proba- P (X = x) = f (x) (5) bilidad en el punto x en el sentido en que X en pequeños intervalos tiende a las proximidades de fX (x) h, la derivada 2) Función de distribución acumulada (fda): Partiendo de de una (fda) existirá cuando la parte positiva de la (fda) seala ecuación (2) vista anteriormente podemos ahora describir una función no decresiente de x, por lo tanto debe cumpliruna relación que esté ligada solo a las variables aleatorias con los siguiente:discretas, ver [11]: fX (x) ≥ 0, para todo x∈R (10) F (x) = P (X ≤ x) = f (t) , para -∞ < x < ∞ (6) ∞ t≤x fX (t) dt = 1 (11) −∞
  • 4. 4 La probabilidad comprendida en un intervalo definido estádada por, como se muestra en la figura 7: b P (a ≤ X ≤ b) = fX (x) dx (12) a Figura 8. Probabilidad comprendida en el área bajo la curva 2) Función de distribución acumulada (fda): De igual forma que para las variables aleatorias discretas si partimos de la ecuación (2) vista anteriormente podemos ahora describir una relación que esté ligada solo a las variables aleatorias continas, ver [14]: x F (x) = P (X ≤ x) = f (t) dt, para -∞ < x < ∞ −∞ (13) Ahora si deseamos encontrar la probabilidad en un intervalo comprendido de la FX (x) con una x = a y una x = b,Figura 6. La (fdp) especifica la probabilidad en un ancho de intervaloinfinitesimal tenemos: P (a < X < b) = FX (b) − FX (a) (14) H. Múltiples variables aleatorias Para el caso de múltiples variables aleatorias tomaremos en cuenta que habrán casos en los necesitemos tomar los datos de dos o más variables aleatorias al mismo tiempo, tendremos f (x, y) que tomará cualesquiera valor (x, y) en el rango de la variable aleatoria X y Y . A esta función la podemos denominar distribución de probabilidad conjunta (dpc) de X y Y.Figura 7. La probabilidad de un intervalo [a, b] es el área bajo la curva del De aquí, para el caso discreto tenemos:intervalo de la (fdp) f (x, y) = P (X = x, Y = x) (15)Ejemplo 4. Ruteador de internet Para mayor detalle de casos probabilísticos de múltiples Un router de internet puede enviar paquetes de datos vía la variables ver Apéndice y revisar [16], [17], [18].ruta 1 o la ruta 2. Los paquetes que se retrasan en cada ruta sonvariables aleatorias independientes, por lo que la diferencia de III. F ORMULACIÓN DEL PROBLEMAretraso entre la ruta 1 y la ruta 2, se la denota con X, la (fdp) En esta sección nos enfocamos en presentar un problemade la variable aleatoria es f (x) = λ e−λ|x| 2 con bases en la ingeniería eléctrica, para de esta forma de- Encontrar P (−3 ≤ X ≤ −2 o 0 ≤ X ≤ 3) mostrar la importancia de la probabilidad y la estadística en la La probabilidad deseada puede ser escrita como: ingeniería. Para un correcto desarrollo de la problemática y una buena resolución del mismo me he guiado en los modelados P ({−3 ≤ X ≤ −2} ∪ {0 ≤ X ≤ 3}), como se observa en matemáticos y probabilísticos, como se ve en [19].la figura 8. Como estos son eventos independientes, la probabilidad de A. Formulación de la hipótesisla unión es la suma de sus probabilidades individuales, por lo Idealmente los sistemas de transmisión tienen una funciónque necesitamos calcular: Y (s) de transferencia H (s) = X(s) = 1, donde X (s) = vin P (−3 ≤ X ≤ −2) y P (0 ≤ X ≤ 3) y Y (s) = vout , es decir que vin = vout otra vez esto es Con lo que ahora procedemos a usar la ecuación (12) para idealmente, pero sabemos que en el mundo real esto no ocurre,encontrar la probabilidad de las diferentes regiones: mayoritariamente por el ingreso de ruido no deseado a la línea −2 −2 P (−3 ≤ X ≤ −2) = −3 λ e−λ|x| dx = λ −3 eλx dx = 2 2 de transmisión, por lo que ahora tendríamos la adición de unae−2λ −e−3λ señal de ruido vnoise a la señal resultante en la salida, con lo 2 y que la nueva relación sería vin + vnoise = vout . 3 3 P (0 ≤ X ≤ 3) = 0 λ e−λ|x| dx = λ 0 eλx dx = 1−e −3λ Entonces con el siguiente experimento lo que queremos es 2 2 2 observar la respuesta en la salida dependiendo de una variable Y para la probabilidad requerida sumamos ambos resulta- aleatoria en el ingreso al sumarle una señal de ruido, quedos: −2λ −2e−3λ para nuestro caso será una función dependiente de la señal P ({−3 ≤ X ≤ −2} ∪ {0 ≤ X ≤ 3}) = 1+e 2 de ingreso, es decir con (fdp) conocida.
  • 5. 5B. Planteamiento del experimento P [B1 ] = p El experimento consiste en un sistema de transmisión bi- ynaria es decir que tiene dos estados uno para el “0” y otro P [B0 ] = 1 − ppara el “1” si sabemos que la señal de ingreso es una variable B. Resoluciónaleatoria X y la señal de ruido es una función dependientede esta variable X, es decir la señal de ruido es f (X), como Haciendo uso de la ecuación (17) podemos simplificar ypara nuestro caso necesitamos una variable aleatoria continua encontrar que:nos referimos a la tabla en [20]. Para escoger una variable FY = FY (x | B0 ) [B0 ] + FY (x | B1 ) [B1 ]aleatoria continua adecuada para nuestra señal de ruido. donde FY (x | B0 ) es el evento comprendido por {Y ≤ x | X = −v} por lo que la probabilidad es:C. Modelado P [FY (x | B0 )] = P [Y ≤ x | X = −v]} Después de revisar la tabla en [20]. Escogemos la variable yaleatoria Gaussiana cuya (fdp) es: P [B0 ] = 1 − p e −(x−m)2/2σ 2 de igual forma tenemos que (x | B1 ) es elvento comprendido fN (x) = √ 2Πσ 2 por {Y ≤ x | X = v} ya que su espacio muestral SX (−∞, ∞) y donde σ > 0 por lo que la probabilidad es:y m son constantes, imponiendonos el valor de su espectativa P [FY (x | B1 )] = P [Y ≤ x | X = +v]E (X) = m = 0. y Resultandos en la (fdp) siguiente: P [B1 ] = p haciendo uso de los resultados remplazamos en la original para −x2/2σ 2 e√ tener: fN (x) = 2Πσ 2 −∞<x<∞ FY (x) = P [Y ≤ x | X = −v] (1 − p) + Podemos ahora plantearnos el sigueinte problema: P [Y ≤ x | X = +v] p Ahora sabiendo que Y = X + N , tenemos:Problema. Hagamos que un sistema de transmisión binaria que el evento {Y < x | X = +v} es equivalente aenvíe un bit “0” al transmitir una señal de voltaje −v, y envíe {v + N < x} que es igual a {N < x − v},un bit “1” al transmitir una señal de voltaje +v. Durante el yenvió, la señal es corrompida con ruido proveniente de una que el evento {Y < x | X = −v} es equivalente aseñal conocida descrita por una función Gaussiana, la señal {N < x + v}.recibida esta dada por la función: Por lo tanto haciendo uso de de la ecuación (19) tenemos Y =X +N que las (fda) condicionales son: FY (x | B0 ) = P [N ≤ x + v] = FN (x + v) Que visualmente está representada en la figura 9, para su ymayor entendimeinto del comportamiento de la salida. FY (x | B1 ) = P [N ≤ x − v] = FN (x − v). Donde Y = vout , X = vin y N es el ruido generado por Remplazando las anteriores en la principal tenemos que lala función Gaussiana, N tiene una (fdp) fN (x). Si asumimos (fda) es:que la probabilidad de P [“1”] = p = 1 − P [“0”]. A manera FY (x) = FN (x + v) (1 − p) + FN (x − v) p.de saber como se desfasará la señal de salida dependiendo de Ahora aplicando la ecuación (7) a la (fda) podemos encon-si la entrada fue un “0” o un “1”, necesitamos encontrar la trar la (fdp) de N :(fdp) de la entrada Y . d fy (x) = dx FY (x) d d = dx FN (x + v) (1 − p) + dx FN (x − v) p = fN (x + v) (1 − p) + fN (x − v) p La (fdp) de la variable aleatoria Gaussiana es: −x2/2σ 2 fN (x) = e√2Πσ2Figura 9. Diagrama de bloque de la señal recibida Las (fdp) condicionales son: FY (x | B0 ) = fN (x + v) IV. R ESOLUCIÓN DEL PROBLEMA y sustituyendo el valor de x −→ (x + v) en la (fdp)A. Definición de eventos tenemos: −(x+v)2/2σ 2 fN (x + v) = e √2Πσ2 Dados: yB0 =⇒que es el evento de que el sistema binario transmita FY (x | B1 ) = fN (x − v)un “0” y ahora sustituyendo el valor de x −→ (x − v) en la (fdp) y tenemos:B1 =⇒que es el evento de que el sistema binario transmita −(x−v)2/2σ 2un “1”. fN (x − v) = e √2Πσ2 .Podemos despejar la probabilidad para cada evento guiandonos Con lo que nos queda solo sustituir los valores resultantesen las condiciones del problema de que P [“1”] = p = 1 − para obtener la señal recibida Y , que es: −(x+v)2/2σ 2 −(x−v)2/2σ 2 e √ e √P [“0”]: fY (x) = 2Πσ 2 (1 − p) + 2Πσ 2 p
  • 6. 6 V. R ESULTADOS Función de densidad de probabilidad condicional En esta sección nos dedicamos al a explicar el uso y losresultados de la función de densidad obtenida anteriormente d fX (x | C) = FX (x | C) (18)para así llegar después a las conclusiones. dx La función de densidad de la señal de ruido fN (x) puede Función de distribución acumulativa condicionalser graficada a fin de entender su comportamiento para elloutilizamos el software matemático “Derive 6”, como se ve enla figura 10, a partir de esto para entender lo que el problema P [{X ≤ x} ∩ C] FX (x | C) = , si P [C] > 0 (19)realizaba cuando se enviaba un +v o un −v graficamos las P [C]funciones de densidad encontradas fN (x + v) y fN (x − v),y podemos observar como se ve en la figura 11 que la señal Función de masa de probabilidad condicionaltransmitida X desplaza el centro de masa de la función dedensidad de la señal de ruido. P [{X = x} ∩ C] pX (x | X) = , si P [C] > 0 (20) P [C] (fmp) conjunta entre dos variables aleatorias discretas f (x, y) ≥ 0 para toda (x, y) (21) f (x, y) = 1 (22) x yFigura 10. Grafica de la (fdp) de fN (x) P (X = x, Y = y) = f (x, y) (23) (fdp) conjunta entre dos variables aleatorias continuas f (x, y) ≥ 0 para toda (x, y) (24) ∞ ∞ f (x, y) dx dy = 1 (25)Figura 11. Grafica de las (fdp) de fN (x + v) y fN (x − v) −∞ −∞ VI. C ONCLUSIONES P [(X, Y ) ∈ A] = f (x, y) dx dy (26) Después de realizar el paper se puede concluir que la Ainvestigación dio lugar a un sinfín de aplicaciones de lo quees la probabilidad y la estadística aplicadas explícitamente a la Distribución marginal de las variables discretasingeniería eléctrica en cuanto a que el tema tratado introducelas variables aleatorias que son una herramienta esencial para g (x) = f (x, y) y h (y) = f (x, y) (27)el modelado matemático, no solo en la ingeniería eléctrica, y xsi no guiada a cualquier carrera, además el problema nosayudó a entender lo útil de las densidades de probabilidad Distribución marginal de las variables continuasy las distribuciones de probabilidad en general, a lo largo deldesarrollo del paper se trataron además algunos ejemplos muy ∞ ∞útiles para entender los diferentes modelos probabilísticos, g (x) = f (x, y) dy y h (y) = f (x, y) dx (28) −∞ −∞con lo que personalmente el paper aporto mucha informaciónindispensable para entender un poco más este amplio tema. Distribución condicional entre dos variables aleatorias A PÉNDICEProbabilidad de dos eventos complementarios f (x, y) f (y | x) = , g (x) > 0 (29) g (x) P (A) + P (B) = 1 (16) f (x, y) f (x | y) = , h (y) > 0 (30) h (y)Teorema de la probabilidad total P [A] = P [A | B1 ] P [B1 ] + P [A | B2 ] P [B2 ] Independencia entre dos variables aleatorias si y solo si f (x, y) = g (x) h (y) (31) + . . . + P [A | Bn ] P [Bn ] (17)
  • 7. 7 R EFERENCES [1] A. L. Webster, “Experimentos, resultaodos, y conjuntos,” in Estadística aplicada a los negocios y a la economía, tercera ed. Colombia: McGraw-Hill, 2000, ch. 4, pp. 76–77. [2] ——, “Introducción,” in Estadística aplicada a los negocios y a la economía, tercera ed. Colombia: McGraw-Hill, 2000, ch. 5, pp. 104– 106. [3] R. I. Levin and D. S. Rubin, “Variables aleatorias,” in Estadística para administradores, sexta ed. México: Prentice Hall, 1996, ch. 5, pp. 236–242. [4] R. E. Walpole, R. H. Myers, S. L. Myers, and K. Ye, “Concepto de variable aleatoria,” in Probabilidad y estadística para ingeniería y ciencias, octava ed. México: Pearson Educación, 2007, ch. 3, pp. 77– 80. [5] J. A. Gubner, “Introduction to discrete random variables,” in Probability and Random Processes for Electrical and Computer Engineers, 1st ed. Cambridge University Press, 2006, ch. 2, p. 63. [6] A. Leon-Garcia, “The notion of a random variable,” in Probability, Statistics, and Random Processes for Electrical Engineering, 3rd ed. Prentice Hall, 2008, ch. 3, pp. 96–97. [7] J. L. Hernández González, “Distribución de probabilidad de variables aleatorias discretas,” Tlaxcala, Mexico, p. 1. [Online]. Available: http://www.itapizaco.edu.mx/~joseluis/apuntes/ estadistica/distribucionesdiscretas.pdf [8] R. I. Levin and D. S. Rubin, “Introducción a las distribuciones de probabilidad,” in Estadística para administradores, sexta ed. México: Prentice Hall, 1996, ch. 5, pp. 232–236. [9] A. Leon-Garcia, “The cumulative distribution function,” in Probability, Statistics, and Random Processes for Electrical Engineering, 3rd ed. Prentice Hall, 2008, ch. 4, pp. 141–147.[10] J. L. Hernández González, “Distribución de probabilidad de variables aleatorias discretas,” Tlaxcala, Mexico, p. 2. [Online]. Available: http://www.itapizaco.edu.mx/~joseluis/apuntes/ estadistica/distribucionesdiscretas.pdf[11] R. E. Walpole, R. H. Myers, S. L. Myers, and K. Ye, “Distribuciones discretas de probabilidad,” in Probabilidad y estadística para ingeniería y ciencias, octava ed. México: Pearson Educación, 2007, ch. 3, pp. 80–84.[12] J. A. Gubner, “Probability mass functions,” in Probability and Random Processes for Electrical and Computer Engineers, 1st ed. Cambridge University Press, 2006, ch. 2, pp. 67–68.[13] A. Leon-Garcia, “Discrete random variables and probability mass func- tion,” in Probability, Statistics, and Random Processes for Electrical Engineering, 3rd ed. Prentice Hall, 2008, ch. 3, pp. 99–104.[14] R. E. Walpole, R. H. Myers, S. L. Myers, and K. Ye, “Distribuciones continuas de probabilidad,” in Probabilidad y estadística para ingeniería y ciencias, octava ed. México: Pearson Educación, 2007, ch. 3, pp. 84–87.[15] A. Leon-Garcia, “The probability density function,” in Probability, Statistics, and Random Processes for Electrical Engineering, 3rd ed. Prentice Hall, 2008, ch. 4, pp. 148–152.[16] R. E. Walpole, R. H. Myers, S. L. Myers, and K. Ye, “Distribuciones de probabilidad conjunta,” in Probabilidad y estadística para ingeniería y ciencias, octava ed. México: Pearson Educación, 2007, ch. 3, pp. 91–100.[17] J. A. Gubner, “Multiple random variables,” in Probability and Random Processes for Electrical and Computer Engineers, 1st ed. Cambridge University Press, 2006, ch. 2, pp. 70–80.[18] A. Leon-Garcia, “Pairs of Random Variables,” in Probability, Statistics, and Random Processes for Electrical Engineering, 3rd ed. Prentice Hall, 2008, ch. 5, pp. 233–257.[19] ——, “Mathematical models as tools in analysis and design - Probability models,” in Probability, Statistics, and Random Processes for Electrical Engineering, 3rd ed. Prentice Hall, 2008, ch. 1, pp. 2–5.[20] ——, “Continuous random variables,” in Probability, Statistics, and Random Processes for Electrical Engineering, 3rd ed. Prentice Hall, 2008, ch. 4, pp. 164–165.