lunes, 17 de septiembre de 2012

Esperanza Matemática


  • En estadística la esperanza matemática (también llamada esperanza, valor esperado, media poblacional o media) de una variable aleatoria  X , es el número \operatorname{E}(X) que formaliza la idea de valor medio de un fenómeno aleatorio.
  • Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible.
  • Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos hacer el cálculo:


\begin{align}
\operatorname{E}(X)& = 1 \cdot \frac{1}{6} + 2 \cdot \frac{1}{6} + 3 \cdot \frac{1}{6}
+ 4 \cdot \frac{1}{6} + 5 \cdot \frac{1}{6} + 6 \cdot \frac{1}{6}\\[6pt]
& = \frac{1 + 2 + 3 + 4 + 5 + 6}{6} = 3,5
\end{align}
  • Y cabe destacar que 3,5 no es un valor posible al rodar el dado. En este caso, en el que todos los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.
  • Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. Por ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por tanto, considerando los 38 posibles resultados, la esperanza matemática del beneficio para apostar a un solo número es:


\left( -1 \cdot \frac{37}{38} \right) + \left( 35 \cdot \frac{1}{38} \right),
  • Que es -0,0526 aproximadamente. Por lo tanto uno esperaría, en media, perder unos 5 céntimos por cada euro que apuesta, y el valor esperado para apostar 1 euro son 0.9474 euros. En el mundo de las apuestas, un juego donde el beneficio esperado es cero (no ganamos ni perdemos) se llama un "juego justo".

Nota: El primer paréntesis es la "esperanza" de perder tu apuesta de 1€, por eso es negativo el valor. El segundo paréntesis es la esperanza matemática de ganar los 35€. La esperanza matemática del beneficio es el valor esperado a ganar menos el valor esperado a perder.

Definición:
  • Para una variable aleatoria discreta con valores posibles x_1, x_2 \ldots x_n \,\! y sus probabilidades representadas por la función de probabilidad p(x_i) la esperanza se calcula como:

E[X]=x_1p(X=x_1)+...+x_np(X=x_n)=E[X]=\sum_{i=1}^{n} x_i p(x_i) \,\!
  • Para una variable aleatoria absolutamente continua, la esperanza se calcula mediante la integral de todos los valores y la función de densidad f(x) \,\!:

E[X]=\int_{-\infty}^\infty x f(x)dx \,\!

\operatorname{E}[X] = \int_\Omega X\, \operatorname{d}P \,\!
  • La esperanza también se suele simbolizar con \mu = E[X] \,\!
  • Las esperanzas E[X^k] \,\! para k=0,1,2... \,\! se llaman momentos de orden k \,\!. Más importantes son los momentos centrados E[(X-E[X])^k] \,\!.
  • No todas las variables aleatorias tienen un valor esperado. Por ejemplo, la distribución de Cauchy no lo tiene.
Propiedades:


\operatorname{E}(X + c)=  \operatorname{E}(X) + c \,\!
\operatorname{E}(X + Y)=  \operatorname{E}(X) + \operatorname{E}(Y) \,\!
\operatorname{E}(aX)= a \operatorname{E}(X)  \,\!
  • Combinando estas propiedades, podemos ver que -

\operatorname{E}(aX + b)= a \operatorname{E}(X) + b  \,\!
\operatorname{E}(a X + b Y) = a \operatorname{E}(X) + b \operatorname{E}(Y)  \,\!
  • Donde X  \,\! e Y \,\! son variables aleatorias y a \,\! y b \,\! y c \,\! son tres constantes cualquiera.

Rodrigo Luna Loli


Teorema de Bayes


  • En la teoría de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 17631 que expresa la probabilidad condicional de un evento aleatorio A dadoB en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A.
  • En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber -si se tiene algún dato más-, la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causales dados los efectos observados.
  • Sea \{A_1, A_3, ..., A_i,   ...,   A_n\} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | A_i). Entonces, la probabilidad P(A_i | B) viene dada por la expresión:

P(A_i|B) = \frac{P(B | A_i) P(A_i)}{P(B)}
donde:
  • P(A_i) son las probabilidades a priori.
  • P(B|A_i) es la probabilidad de B en la hipótesis A_i.
  • P(A_i|B) son las probabilidades a posteriori.

Thomas Bayes (1763)





Formula de Bayes







  • Además, unido a la definición de Probabilidad condicionada, obtenemos la Fórmula de Bayes, también conocida como la Regla de Bayes:
P(A_i|B) = \frac{P(B | A_i) P(A_i)}{\sum_{k=1}^n P(B | A_k) P(A_k)}






Aplicaciones








  • El teorema de Bayes es válido en todas las aplicaciones de la teoría de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadística tradicional sólo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmación empírica mientras que los llamados estadísticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cómo debemos modificar nuestras probabilidades subjetivas cuando recibimos información adicional de un experimento. La estadística bayesiana está demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en función de la evidencia empírica es lo que está abriendo nuevas formas de hacer conocimiento. Una aplicación de esto son losclasificadores bayesianos que son frecuentemente usados en implementaciones de filtros de correo basura o spam, que se adaptan con el uso.
  • Como observación, se tiene \sum_{i=1}^{n}P(A_i |B)=1 y su demostración resulta trivial.

Rodrigo Luna Loli

Método Montecarlo

  • El método de Montecarlo es un método no determinístico o estadístico numérico, usado para aproximar expresiones matemáticas complejas y costosas de evaluar con exactitud. El método se llamó así en referencia al Casino de Montecarlo (Principado de Mónaco) por ser “la capital del juego de azar”, al ser la ruleta un generador simple denúmeros aleatorios. El nombre y el desarrollo sistemático de los métodos de Montecarlo datan aproximadamente de 1944 y se mejoraron enormemente con el desarrollo de la computadora.

  • El método de Montecarlo proporciona soluciones aproximadas a una gran variedad de problemas matemáticos posibilitando la realización de experimentos con muestreos de números pseudoaleatorios en una computadora. El método es aplicable a cualquier tipo de problema, ya sea estocástico o determinista. A diferencia de los métodos numéricos que se basan en evaluaciones en N puntos en un espacio M-dimensional para producir una solución aproximada, el método de Montecarlo tiene un error absoluto de la estimación que decrece como en virtud del  teorema del límite central.




Orígenes del método:

  • La invención del método de Montecarlo se asigna a Stanislaw Ulam y a John von Neumann. Ulam ha explicado cómo se le ocurrió la idea mientras jugaba un solitario durante una enfermedad en 1946. Advirtió que resulta mucho más simple tener una idea del resultado general del solitario haciendo pruebas múltiples con las cartas y contando las proporciones de los resultados que computar todas las posibilidades de combinación formalmente. Se le ocurrió que esta misma observación debía aplicarse a su trabajo de Los Álamos sobre difusión de neutrones, para la cual resulta prácticamente imposible solucionar las ecuaciones íntegro-diferenciales que gobiernan la dispersión, la absorción y la fisión. “La idea consistía en probar con experimentos mentales las miles de posibilidades, y en cada etapa, determinar por casualidad, por un número aleatorio distribuido según las probabilidades, qué sucedería y totalizar todas las posibilidades y tener una idea de la conducta del proceso físico”.
  • Podían utilizarse máquinas de computación, que comenzaban a estar disponibles, para efectuar las pruebas numéricas y en efecto reemplazar el aparato experimental del físico. Durante una de las visitas de von Neumann a Los Álamos en 1946, Ulam le mencionó el método. Después de cierto escepticismo inicial, von Neumann se entusiasmó con la idea y pronto comenzó a desarrollar sus posibilidades en un procedimiento sistemático. Ulam expresó que Montecarlo “comenzó a tener forma concreta y empezó a desarrollarse con todas sus fallas de teoría rudimentaria después de que se lo propuse a Johnny”.
  • A principios de 1947 Von Neumann envió una carta a Richtmyer a Los Álamos en la que expuso de modo influyente tal vez el primer informe por escrito del método de Montecarlo. Su carta fue encuadernada junto con la respuesta de Richtmyer como un informe de Los Álamos y distribuida entre los miembros del laboratorio. Von Neumann sugería aplicar el método para rastrear la generación isótropa de neutrones desde una composición variable de material activo a lo largo del radio de una esfera. Sostenía que el problema era adecuado para el ENIAC y estimaba que llevaría 5 horas calcular la acción de 100 neutrones a través de un curso de 100 colisiones cada uno.
  • Ulam estaba particularmente interesado en el método Montecarlo para evaluar integrales múltiples. Una de las primeras aplicaciones de este método a un problema determinista fue llevada a cabo en 1948 por Enrico Fermi, Ulam y von Neumann cuando consideraron los valores singulares de la ecuación de Schrödinger.







Ejemplo:
  • Si deseamos reproducir, mediante números aleatorios, la tirada sucesiva de una moneda, debemos previamente asignarle un intervalo de números aleatorios a CARA y otro a CRUZ, de manera de poder interpretar el resultado de la simulación. Tales intervalos se asignan en función de las probabilidades de ocurrencia de cada cara de la moneda. Tenemos así:

CARA Probabilidad: 0,50 Números aleatorios: 0,000 al 0,499
CRUZ Probabilidad: 0,50 Números aleatorios: 0,500 al 0,999
  • Después, al generar un número aleatorio a partir de la función RAN de la calculadora, por ejemplo, obtenemos el resultado simulado. Así, si obtenemos el número aleatorio 0,385, observamos que está incluido en el intervalo asignado a CARA.
  • En otras aplicaciones, se asocian intervalos de números aleatorios según las probabilidades de ocurrencia de los eventos a simular.


Rodrigo Luna Loli