Skip to content

Momentos de las variables aleatorias múltiples

WARNING

Transcripción de 3_10_1_valor_esperado_momentos_correlacion.md posee varios errores. Falta de corregir

Valor esperado de una función de variables aleatorias

El valor esperado de una función de variables aleatorias se define como el promedio ponderado de los valores que puede tomar esta función.

Para variables aleatorias discretas X y Y, y una función g(X,Y), el valor esperado se define como:

E[g(X,Y)]=xyg(x,y)PX,Y(x,y)

Para variables aleatorias continuas:

E[g(X,Y)]=g(x,y)fX,Y(x,y)dxdy

Ejemplo: Valor esperado de una función de variables aleatorias

El PDF conjunto de la cantidad X de almendras y la cantidad Y de semillas de marañón (y la cantidad Z de maní) en un tarro de 1 kg es: Sean los valores de (x) y (y) tales que:

  • x está entre 0 y 1,
  • y está entre 0 y 1,
  • y la suma x + y es menor o igual que 1.
fX,Y(x,y)=24xy

En cualquier otro caso:

fX,Y(x,y)=0

Si 1 kg de almendras le cuesta a la compañía ₡6000, un kilogramo de semillas de marañón son ₡10.000 y 1 kg de maní cuesta ₡3.500.
¿Cuál es el costo esperado total del contenido del tarro? Sea la función del costo

h(X,Y)=6000X+10000Y+3500(1XY)

Entonces,

E[h(X,Y)]=h(x,y)fX,Y(x,y)dxdy

Se reduce a:

E[h(X,Y)]=0101x[6000x+10000y+3500(1xy)]24xydydx=7100

que representa los costos esperados del contenido de la caja.

Momentos conjuntos alrededor del origen

Los momentos conjuntos alrededor del origen miden el comportamiento combinado de dos variables aleatorias. Para dos variables aleatorias X y Y se denotan por mₙₖ = E[XⁿYᵏ] y se definen por:

WARNING

Falta fórmula aquí.

Casos especiales

WARNING

Faltan muchas fórmulas aquí.

Ejemplo de la ubicación del “centro de gravedad” I:

Ejemplo: Gráfica de gravedad

Sección 3: La correlación

La covarianza entre dos variables aleatorias mide cómo varían ambas respecto a sus medias.

El momento de segundo orden m₁₁ = E[XY] es denominado la correlación de X y Y.
Recibe el símbolo especial Rₓᵧ por su importancia.

RXY=m11=E[XY]=xyfX,Y(x,y)dxdy

Interpretaciones posibles

  • “La correlación es el grado en el cual dos o más cantidades están linealmente asociadas”.
  • Pero (fundamental) “correlación no implica causalidad”.

Ejemplo de correlación del tarro de nueces

El PDF conjunto de la cantidad X de almendras, la cantidad Y de semillas de marañón y la cantidad Z de maní en un tarro de 1 kg está dado por:

Sea fX,Y(x,y)=24xy en el dominio:

  • x está entre 0 y 1,
  • y está entre 0 y 1,
  • y la suma x + y es menor o igual que 1.

¿Cuál es la correlación entre X y Y?

=0101yxy24xydxdy=2401y2(01yx2dx)dy=24301y2(1y)3dy=243[y66+3y553y44+y33]01=2150,13

WARNING

Falta fórmula en el ejemplo anterior.

Independencia y correlación

Independencia y correlación

La independencia estadística de X y Y es suficiente para garantizar que no están correlacionadas.

El recíproco de esta afirmación, que X y Y son independientes si no están correlacionadas, no es necesariamente cierto.
Una excepción importante: variables gaussianas no correlacionadas sí son independientes.

Ortogonalidad

Ortogonalidad

Si RXY=0 para dos variables aleatorias X y Y, estas se denominan ortogonales.

En síntesis

  • Si RXY=E[XY]=E[X]E[Y], entonces X y Y no están correlacionadas.
  • La independencia, es decir, fXY(x,y)=fX(x)fY(y), garantiza que no estén correlacionadas, pero no a la inversa.
  • Si RXY=0, las variables son ortogonales.

Correlación y ortogonalidad entre X y Y

Sea X una variable aleatoria con valor medio X=E[X]=3 y varianza σX2=2, y sea Y=6X+22.

Determinar si X y Y están correlacionadas y si son ortogonales.

  1. Calculamos el segundo momento de X alrededor del origen:
E[X2]=σX2+(E[X])2=2+9=11
  1. Valor esperado de Y:
E[Y]=6E[X]+22=63+22=4
  1. Producto cruzado:
RXY=E[XY]=E[X(6X+22)]=E[6X2+22X]=6E[X2]+22E[X]=6(11)+22(3)=0

X y Y son ortogonales porque RXY=0.
Sin embargo, no están no correlacionadas en el sentido de la media, ya que E[X]E[Y]=34=12RXY.

Nota

Dos variables aleatorias pueden ser ortogonales incluso si una es función lineal de la otra: Y=aX+b.

Momentos centrales conjuntos

Momentos centrales conjuntos

Para dos variables aleatorias X y Y:

μnk=E[(XX)n(YY)k]=(xX)n(yY)kfX,Y(x,y) dx dy

Momentos importantes:

  • μ20=E[(XX)2]=σX2
  • μ02=E[(YY)2]=σY2

Covarianza de dos variables aleatorias

Covarianza

La covarianza CXY es el momento central conjunto de orden (1,1):

CXY=E[(XX)(YY)]=(xX)(yY)fX,Y(x,y) dx dy=E[XY]E[X]E[Y]=RXYE[X]E[Y]

Propiedades:

  1. Si X y Y son independientes o no correlacionadas: CXY=0
  2. Si X y Y son ortogonales: CXY=E[X]E[Y]
    • Si además E[X]=0 o E[Y]=0, entonces CXY=0

Coeficiente de correlación de Pearson

El coeficiente de correlación normalizado es:

ρ=μ11μ20μ02=CXYσXσY

También puede escribirse como:

ρ=E[(XX)(YY)]σXσY=E[(XX)σX(YY)σY]

Rango: 1ρ1

Visualización de casos especiales del coeficiente de correlación de Pearson

Ejemplo: Ubicación del "centro de gravedad"

Funciones características conjuntas

Definición

La función característica conjunta de dos variables aleatorias X y Y está definida por:

ΦX,Y(ω1,ω2)=E[ejω1X+jω2Y]

donde ω1,ω2 son números reales. Una forma equivalente es:

ΦX,Y(ω1,ω2)=fX,Y(x,y)ejω1x+jω2y dx dy

Lo anterior es la transformada bidimensional de Fourier (con signos cambiados para ω1,ω2) de la función de densidad conjunta. De la transformada inversa de Fourier se tiene:

fX,Y(x,y)=1(2π)2ΦX,Y(ω1,ω2)ejω1xjω2y dω1 dω2

Con poner ω2=0 u ω1=0, se obtiene las funciones características de X o Y, de ΦX,Y(ω1,ω2). Estas se llaman funciones características marginales:

  • ΦX(ω1)=ΦX,Y(ω1,0)
  • ΦY(ω2)=ΦX,Y(0,ω2)

Los momentos conjuntos mnk pueden hallarse de la función característica conjunta como sigue:

mnk=(j)n+kn+kΦX,Y(ω1,ω2)ω1n ω2k|ω1=0, ω2=0