x
1

Convergencia de variables aleatorias



En teoría de la probabilidad, existen diferentes nociones de convergencia de variables aleatorias. La convergencia de sucesiones de variables aleatorias a una variable aleatoria límite es un concepto importante en teoría de la probabilidad, y en sus aplicaciones a la estadística y los procesos estocásticos.

Se dice que una sucesión de variables aleatorias reales converge en distribución, o converge débilmente, a una variable aleatoria si

para todo punto en el que es continua, donde y denotan las funciones de distribución acumulada de las variables aleatorias y , respectivamente.

Una sucesión de variables aleatorias reales converge en probabilidad a una variable aleatoria si para todo

Una sucesión de variables aleatorias reales converge casi seguramente, o con probabilidad 1, a una variable aleatoria si

Dado un número real , se dice que la sucesión de variables aleatorias reales converge en a la variable aleatoria , si los momentos absolutos -ésimos y de y de existen, y

donde el operador denota la esperanza matemática.



Escribe un comentario o lo que quieras sobre Convergencia de variables aleatorias (directo, no tienes que registrarte)


Comentarios
(de más nuevos a más antiguos)


Aún no hay comentarios, ¡deja el primero!