Momentos de las variables aleatorias múltiples
WARNING
Transcripción de 3_10_1_valor_esperado_momentos_correlacion.md posee varios errores. Falta de corregir
Valor esperado de una función de variables aleatorias
El valor esperado de una función de variables aleatorias se define como el promedio ponderado de los valores que puede tomar esta función.
Para variables aleatorias discretas
Para variables aleatorias continuas:
Ejemplo: Valor esperado de una función de variables aleatorias
El PDF conjunto de la cantidad
- x está entre 0 y 1,
- y está entre 0 y 1,
- y la suma x + y es menor o igual que 1.
En cualquier otro caso:
Si 1 kg de almendras le cuesta a la compañía ₡6000, un kilogramo de semillas de marañón son ₡10.000 y 1 kg de maní cuesta ₡3.500.
¿Cuál es el costo esperado total del contenido del tarro? Sea la función del costo
Entonces,
Se reduce a:
que representa los costos esperados del contenido de la caja.
Momentos conjuntos alrededor del origen
Los momentos conjuntos alrededor del origen miden el comportamiento combinado de dos variables aleatorias. Para dos variables aleatorias X y Y se denotan por mₙₖ = E[XⁿYᵏ] y se definen por:
WARNING
Falta fórmula aquí.
Casos especiales
WARNING
Faltan muchas fórmulas aquí.
Ejemplo de la ubicación del “centro de gravedad” I:
Sección 3: La correlación
La covarianza entre dos variables aleatorias mide cómo varían ambas respecto a sus medias.
El momento de segundo orden m₁₁ = E[XY] es denominado la correlación de X y Y.
Recibe el símbolo especial Rₓᵧ por su importancia.
Interpretaciones posibles
- “La correlación es el grado en el cual dos o más cantidades están linealmente asociadas”.
- Pero (fundamental) “correlación no implica causalidad”.
Ejemplo de correlación del tarro de nueces
El PDF conjunto de la cantidad X de almendras, la cantidad Y de semillas de marañón y la cantidad Z de maní en un tarro de 1 kg está dado por:
Sea
- x está entre 0 y 1,
- y está entre 0 y 1,
- y la suma x + y es menor o igual que 1.
¿Cuál es la correlación entre X y Y?
WARNING
Falta fórmula en el ejemplo anterior.
Independencia y correlación
Independencia y correlación
La independencia estadística de
El recíproco de esta afirmación, que
y son independientes si no están correlacionadas, no es necesariamente cierto.
Una excepción importante: variables gaussianas no correlacionadas sí son independientes.
Ortogonalidad
Ortogonalidad
Si
En síntesis
- Si
, entonces y no están correlacionadas. - La independencia, es decir,
, garantiza que no estén correlacionadas, pero no a la inversa. - Si
, las variables son ortogonales.
Correlación y ortogonalidad entre
Sea
Determinar si
- Calculamos el segundo momento de
alrededor del origen:
- Valor esperado de
:
- Producto cruzado:
y son ortogonales porque .
Sin embargo, no están no correlacionadas en el sentido de la media, ya que.
Nota
Dos variables aleatorias pueden ser ortogonales incluso si una es función lineal de la otra:
Momentos centrales conjuntos
Momentos centrales conjuntos
Para dos variables aleatorias
Momentos importantes:
Covarianza de dos variables aleatorias
Covarianza
La covarianza
Propiedades:
- Si
y son independientes o no correlacionadas: - Si
y son ortogonales: - Si además
o , entonces
- Si además
Coeficiente de correlación de Pearson
El coeficiente de correlación normalizado es:
También puede escribirse como:
Rango:
Visualización de casos especiales del coeficiente de correlación de Pearson
Funciones características conjuntas
Definición
La función característica conjunta de dos variables aleatorias
donde
Lo anterior es la transformada bidimensional de Fourier (con signos cambiados para
Con poner
Los momentos conjuntos
