Um vetor aleatório $n$-dimensional é uma função do espaço amostral $S$ para $\mathbb{R}^n$. Um vetor bidimensional é denotado $(X,Y)$.
Seja $(X,Y)$ um vetor aleatório discreto. A função massa de probabilidade conjunta é:
Para qualquer conjunto $A\subset\mathbb{R}^2$:
Para $g(x,y)$ qualquer função de $(X,Y)$ discreto:
O operador é linear — para funções $g_1,g_2$ e constantes $a,b,c$:
Por que modelos multivariados?
Experimentos reais raramente medem uma só variável. Ao medir peso e pressão sanguínea de uma pessoa, temos $(X,Y)$ e precisamos capturar a relação entre elas — as distribuições marginais isoladas não bastam.
Seja $(X,Y)$ discreto com pmf conjunta $f_{X,Y}(x,y)$. As pmfs marginais são:
Prova: $f_X(x)=P(X=x)=P(X=x,\,-\infty < Y < \infty)=\sum_y f_{X,Y}(x,y)$.
Observação Importante
As distribuições marginais de $X$ e $Y$ não determinam univocamente a distribuição conjunta. Podem existir várias distribuições conjuntas com as mesmas marginais.
$f(x,y)$ é a pdf conjunta do vetor contínuo $(X,Y)$ se $\forall\,A\subset\mathbb{R}^2$:
As pdfs marginais são obtidas integrando:
$F(x,y)=P(X\leq x,\,Y\leq y)$. Para o caso contínuo, $\dfrac{\partial^2 F}{\partial x\,\partial y}=f(x,y)$.
Lançam-se dois dados. $X=$ soma, $Y=|$diferença$|$. Os 36 resultados são igualmente prováveis.
As duas pmfs abaixo têm mesmas marginais ($f_X(0)=\tfrac{1}{3}$, $f_X(1)=\tfrac{2}{3}$, $f_Y(0)=f_Y(1)=\tfrac{1}{2}$) mas são diferentes:
PMF — Ex. 4.1.5
$f(0,0)=f(0,1)=\tfrac{1}{6}$
$f(1,0)=f(1,1)=\tfrac{1}{3}$
$P(X=Y)=\tfrac{1}{2}$
PMF — Ex. 4.1.9
$f(0,0)=\tfrac{1}{12}$, $f(1,0)=\tfrac{5}{12}$
$f(0,1)=f(1,1)=\tfrac{3}{12}$
$P(X=Y)=\tfrac{1}{3}$
As marginais não determinam a distribuição conjunta.
A distribuição conjunta contém mais informação do que as marginais combinadas. Ela captura a estrutura de dependência entre $X$ e $Y$.
Seja $f(x,y)=6xy^2$ para $0 < x < 1$ e $0 < y < 1$ (zero fora).
Verificação: $\int_0^1\!\int_0^1 6xy^2\,dx\,dy=\int_0^1 3y^2\,dy=1$ ✓
$P(X+Y\geq1)$
$=\!\int_0^1\!\int_{1-y}^1\!6xy^2\,dx\,dy=\dfrac{9}{10}$
Marginal $f_X(x)$
$=\!\int_0^1\!6xy^2\,dy=2x$, $\;0 < x < 1$
$P\!\left(\tfrac{1}{2} < X < \tfrac{3}{4}\right)=\int_{1/2}^{3/4}2x\,dx=\dfrac{5}{16}$
Seja $f(x,y)=e^{-y}$ para $0 < x < y < \infty$.
Integrando sobre $B^c$ (complementar da região triangular).
Para $f_X(x)>0$, a pmf/pdf condicional de $Y$ dado $X=x$ é:
Verifica-se que $f(y|x)\geq0$ e $\sum_y f(y|x)=1$ (ou $\int f(y|x)\,dy=1$).
Nota: $E(g(Y)|X)$ é uma variável aleatória (depende de $X$), enquanto $E(g(Y))$ é uma constante.
Com $f(x,y)=e^{-y}$, $0 < x < y < \infty$: $f_X(x)=e^{-x}$. Logo:
$E(Y|X=x)=1+x\;$ — distribuição Exponencial com localização $x$.
PMF conjunta: $f(0,10)=f(0,20)=\tfrac{2}{18}$, $f(1,10)=f(1,30)=\tfrac{3}{18}$, $f(1,20)=\tfrac{4}{18}$, $f(2,30)=\tfrac{4}{18}$.
Marginais: $f_X(0)=\tfrac{4}{18}$, $f_X(1)=\tfrac{10}{18}$, $f_X(2)=\tfrac{4}{18}$.
Para $x=0$
$f(10|0)=f(20|0)=\tfrac{1}{2}$
Para $x=2$
$f(30|2)=1$
($Y$ determinado)
$P(Y>10\mid X=1)=f(20|1)+f(30|1)=\tfrac{7}{10}$
Variância Condicional
No Ex. 4.2.4: $\text{Var}(Y|x)=1$ para todo $x$. A variância marginal de $Y$ é $\text{Var}\,Y=2$ (Gama(2,1)). Conhecer $X$ reduz a variabilidade em $Y$.
$X$ e $Y$ são independentes se para todo $x\in\mathbb{R}$ e $y\in\mathbb{R}$:
Consequência: $f(y|x)=f_Y(y)$ — o conhecimento de $X$ nada acrescenta sobre $Y$.
$X$ e $Y$ são independentes se e somente se existem funções $g(x)$ e $h(y)$ tais que:
Atenção: o suporte também deve ser um produto cartesiano $A\times B$. Se o suporte depende conjuntamente de $x$ e $y$ (ex.: $0 < x < y$), as variáveis não são independentes.
$f(x,y)=\tfrac{1}{384}x^2y^4e^{-x/2}e^{-y}$, $x,y>0$: basta escrever $g(x)=x^2e^{-x/2}$ e $h(y)=y^4e^{-y}/384$. Suporte é produto cartesiano. Logo $X\perp Y$. ✓
Ex. 4.2.11: $X,Y\sim\text{Exp}(1)$ independentes. $E[X^2Y]=(EX^2)(EY)=(\text{Var}\,X+(EX)^2)\cdot1=2$.
$M_{X+Y}(t)=M_X(t)M_Y(t)$. Para normais independentes:
Uma v.a. $X$ tem distribuição mista se sua distribuição depende de uma quantidade que também possui uma distribuição de probabilidade.
Um inseto bota ovos, cada um sobrevivendo com probabilidade $p$:
Resultado (Ex. 4.4.2): $X\sim\text{Poisson}(\lambda p)$, portanto $EX=\lambda p$.
$X\mid P\sim\text{Bin}(n,P)$, $\;P\sim\text{Beta}(\alpha,\beta)$:
Para quaisquer v.a.s $X$ e $Y$:
O "E" interno é sobre $X|Y$; o "E" externo é sobre $Y$.
Variância total = variância intragrupo + variância entre grupos.
Hierarquias simplificam tanto a compreensão quanto os cálculos. O Exemplo 4.4.5 mostra que uma hierarquia de 3 estágios (Binomial–Poisson–Exponencial) é equivalente a uma Binomial Negativa.
Ovos: $Y\sim\text{Poisson}(\lambda)$
Sobreviventes: $X\mid Y\sim\text{Bin}(Y,p)$
Resultado: $X\sim\text{Poisson}(\lambda p)$
Cancelando termos e aplicando o Teorema Binomial:
A hierarquia facilita o entendimento: ovos são Poisson, sobrevivência é Binomial, e o marginal (sobreviventes) é Poisson com taxa $\lambda p$ — produto das duas taxas.
Valor padronizado; permite comparar relações em contextos distintos.
Se $X$ e $Y$ são independentes, então $\text{Cov}(X,Y)=0$ e $\rho_{XY}=0$.
Atenção: a recíproca não é verdadeira. Cov $= 0$ não implica independência.
Se $X\perp Y$: $\text{Var}(aX+bY)=a^2\text{Var}\,X+b^2\text{Var}\,Y$.
$X\sim N(0,1)$, $\;Y=\rho X+\sqrt{1-\rho^2}\,Z$
com $Z\sim N(0,1)$ independente de $X$.
Vetor aleatório $(X,Y)$: pmf/pdf conjunta $f(x,y)$. Marginais: soma/integral sobre a outra variável. As marginais não determinam a conjunta. CDF: $F(x,y)=P(X\leq x,Y\leq y)$; caso contínuo: $\partial^2F/\partial x\partial y=f(x,y)$.
$f(y|x)=f(x,y)/f_X(x)$. Independência: $f(x,y)=f_X(x)f_Y(y)$ — critério de fatoração (Lema 4.2.7). Para independentes: $E[g(X)h(Y)]=Eg(X)\cdot Eh(Y)$ e $M_{X+Y}(t)=M_X(t)M_Y(t)$. Soma de normais independentes é normal.
$X$ tem distribuição mista se sua distribuição depende de uma quantidade aleatória. Lei das expectativas totais: $EX=E(E(X|Y))$. Identidade da variância: $\text{Var}\,X=E[\text{Var}(X|Y)]+\text{Var}(E(X|Y))$.
$\text{Cov}(X,Y)=EXY-\mu_X\mu_Y$. $\rho=\text{Cov}/(\sigma_X\sigma_Y)\in[-1,1]$. Independência $\Rightarrow$ Cov $=0$ (não o inverso). $|\rho|=1$ $\Leftrightarrow$ relação linear perfeita. $\text{Var}(aX+bY)=a^2\text{Var}X+b^2\text{Var}Y+2ab\,\text{Cov}(X,Y)$.
▶ Próxima seção: Propriedades de Amostras Aleatórias (§ 5) — Estatísticas, Distribuições Amostrais, Lei dos Grandes Números, Teorema do Limite Central