Curso de Verão em Estatística · PPGOM / UFPel
Seção 4

Variáveis Aleatórias Múltiplas

Prof. Regis A. Ely  ·  Programa de Pós-Graduação em Organizações e Mercados
Referência: Casella & Berger, Statistical Inference, Cap. 4
4.1
Distribuições Conjuntas e Marginais
4.2
Distribuição Condicional e Independência
4.3
Mistura de Distribuições
4.4
Covariância e Correlação
§ 4.1
Vetor Aleatório e PMF Conjunta Discreta
Definição — Vetor Aleatório

Um vetor aleatório $n$-dimensional é uma função do espaço amostral $S$ para $\mathbb{R}^n$. Um vetor bidimensional é denotado $(X,Y)$.

Definição — PMF Conjunta Discreta

Seja $(X,Y)$ um vetor aleatório discreto. A função massa de probabilidade conjunta é:

$$f_{X,Y}(x,y)=P(X=x,\,Y=y)$$

Para qualquer conjunto $A\subset\mathbb{R}^2$:

$$P\!\left((X,Y)\in A\right)=\sum_{(x,y)\in A}f(x,y)$$
Propriedades
i
$f(x,y)\geq0$ para todo $(x,y)$
ii
$\displaystyle\sum_{(x,y)\in\mathbb{R}^2}f(x,y)=1$
Valor Esperado de Função do Vetor

Para $g(x,y)$ qualquer função de $(X,Y)$ discreto:

$$Eg(X,Y)=\sum_{(x,y)\in\mathbb{R}^2}g(x,y)\,f(x,y)$$

O operador é linear — para funções $g_1,g_2$ e constantes $a,b,c$:

$$E(ag_1+bg_2+c)=aEg_1+bEg_2+c$$

Por que modelos multivariados?

Experimentos reais raramente medem uma só variável. Ao medir peso e pressão sanguínea de uma pessoa, temos $(X,Y)$ e precisamos capturar a relação entre elas — as distribuições marginais isoladas não bastam.

§ 4.1
Funções de Probabilidade Marginais
Teorema — PMF Marginal (Discreto)

Seja $(X,Y)$ discreto com pmf conjunta $f_{X,Y}(x,y)$. As pmfs marginais são:

$$f_X(x)=\sum_{y\in\mathcal{R}}f_{X,Y}(x,y)$$
$$f_Y(y)=\sum_{x\in\mathcal{R}}f_{X,Y}(x,y)$$

Prova: $f_X(x)=P(X=x)=P(X=x,\,-\infty < Y < \infty)=\sum_y f_{X,Y}(x,y)$.

Observação Importante

As distribuições marginais de $X$ e $Y$ não determinam univocamente a distribuição conjunta. Podem existir várias distribuições conjuntas com as mesmas marginais.

Caso Contínuo — PDF Conjunta e Marginais

$f(x,y)$ é a pdf conjunta do vetor contínuo $(X,Y)$ se $\forall\,A\subset\mathbb{R}^2$:

$$P\!\left((X,Y)\in A\right)=\iint_A f(x,y)\,dx\,dy$$

As pdfs marginais são obtidas integrando:

$$f_X(x)=\int_{-\infty}^{\infty}f(x,y)\,dy$$
$$f_Y(y)=\int_{-\infty}^{\infty}f(x,y)\,dx$$
Definição — CDF Conjunta

$F(x,y)=P(X\leq x,\,Y\leq y)$. Para o caso contínuo, $\dfrac{\partial^2 F}{\partial x\,\partial y}=f(x,y)$.

Exemplo 4.1.2 — § 4.1
PMF Conjunta: Dois Dados Justos
Configuração (Casella & Berger Ex. 4.1.2)

Lançam-se dois dados. $X=$ soma, $Y=|$diferença$|$. Os 36 resultados são igualmente prováveis.

  • $X\in\{2,3,\ldots,12\}$
  • $Y\in\{0,1,2,3,4,5\}$
← Clique em uma célula
§ 4.1
Exemplos: Mesmas Marginais ≠ Mesma Conjunta; PDF Contínua
Exemplo 4.1.9 — Mesmo Marginal, PMF Diferente

As duas pmfs abaixo têm mesmas marginais ($f_X(0)=\tfrac{1}{3}$, $f_X(1)=\tfrac{2}{3}$, $f_Y(0)=f_Y(1)=\tfrac{1}{2}$) mas são diferentes:

PMF — Ex. 4.1.5

$f(0,0)=f(0,1)=\tfrac{1}{6}$

$f(1,0)=f(1,1)=\tfrac{1}{3}$

$P(X=Y)=\tfrac{1}{2}$

PMF — Ex. 4.1.9

$f(0,0)=\tfrac{1}{12}$, $f(1,0)=\tfrac{5}{12}$

$f(0,1)=f(1,1)=\tfrac{3}{12}$

$P(X=Y)=\tfrac{1}{3}$

As marginais não determinam a distribuição conjunta.

A distribuição conjunta contém mais informação do que as marginais combinadas. Ela captura a estrutura de dependência entre $X$ e $Y$.

Exemplo 4.1.11 — PDF Conjunta Contínua

Seja $f(x,y)=6xy^2$ para $0 < x < 1$ e $0 < y < 1$ (zero fora).

Verificação: $\int_0^1\!\int_0^1 6xy^2\,dx\,dy=\int_0^1 3y^2\,dy=1$ ✓

$P(X+Y\geq1)$

$=\!\int_0^1\!\int_{1-y}^1\!6xy^2\,dx\,dy=\dfrac{9}{10}$

Marginal $f_X(x)$

$=\!\int_0^1\!6xy^2\,dy=2x$, $\;0 < x < 1$

$P\!\left(\tfrac{1}{2} < X < \tfrac{3}{4}\right)=\int_{1/2}^{3/4}2x\,dx=\dfrac{5}{16}$

Exemplo 4.1.12 — Suporte Triangular

Seja $f(x,y)=e^{-y}$ para $0 < x < y < \infty$.

$$P(X+Y\geq1)=2e^{-1/2}-e^{-1}\approx0{,}580$$

Integrando sobre $B^c$ (complementar da região triangular).

§ 4.2
Distribuição Condicional
Definição 4.2.1 / 4.2.3 — PMF e PDF Condicional

Para $f_X(x)>0$, a pmf/pdf condicional de $Y$ dado $X=x$ é:

$$f(y|x)=\frac{f(x,y)}{f_X(x)}$$

Verifica-se que $f(y|x)\geq0$ e $\sum_y f(y|x)=1$ (ou $\int f(y|x)\,dy=1$).

Valor Esperado Condicional
$$E(g(Y)|x)=\sum_y g(y)f(y|x)\quad\text{ou}\quad\int g(y)f(y|x)\,dy$$

Nota: $E(g(Y)|X)$ é uma variável aleatória (depende de $X$), enquanto $E(g(Y))$ é uma constante.

Exemplo 4.2.4 — PDF Condicional Contínua

Com $f(x,y)=e^{-y}$, $0 < x < y < \infty$: $f_X(x)=e^{-x}$. Logo:

$$f(y|x)=\frac{e^{-y}}{e^{-x}}=e^{-(y-x)},\quad y>x$$

$E(Y|X=x)=1+x\;$ — distribuição Exponencial com localização $x$.

Exemplo 4.2.2 — PMF Condicional Discreta

PMF conjunta: $f(0,10)=f(0,20)=\tfrac{2}{18}$, $f(1,10)=f(1,30)=\tfrac{3}{18}$, $f(1,20)=\tfrac{4}{18}$, $f(2,30)=\tfrac{4}{18}$.

Marginais: $f_X(0)=\tfrac{4}{18}$, $f_X(1)=\tfrac{10}{18}$, $f_X(2)=\tfrac{4}{18}$.

Para $x=0$

$f(10|0)=f(20|0)=\tfrac{1}{2}$

Para $x=2$

$f(30|2)=1$

($Y$ determinado)

$P(Y>10\mid X=1)=f(20|1)+f(30|1)=\tfrac{7}{10}$

Variância Condicional

$$\text{Var}(Y|x)=E(Y^2|x)-[E(Y|x)]^2$$

No Ex. 4.2.4: $\text{Var}(Y|x)=1$ para todo $x$. A variância marginal de $Y$ é $\text{Var}\,Y=2$ (Gama(2,1)). Conhecer $X$ reduz a variabilidade em $Y$.

§ 4.2
Independência entre Variáveis Aleatórias
Definição 4.2.5 — Variáveis Independentes

$X$ e $Y$ são independentes se para todo $x\in\mathbb{R}$ e $y\in\mathbb{R}$:

$$f(x,y)=f_X(x)\,f_Y(y)$$

Consequência: $f(y|x)=f_Y(y)$ — o conhecimento de $X$ nada acrescenta sobre $Y$.

Lema 4.2.7 — Critério de Fatoração

$X$ e $Y$ são independentes se e somente se existem funções $g(x)$ e $h(y)$ tais que:

$$f(x,y)=g(x)\,h(y)$$

Atenção: o suporte também deve ser um produto cartesiano $A\times B$. Se o suporte depende conjuntamente de $x$ e $y$ (ex.: $0 < x < y$), as variáveis não são independentes.

Exemplo 4.2.8 — Fatoração

$f(x,y)=\tfrac{1}{384}x^2y^4e^{-x/2}e^{-y}$, $x,y>0$: basta escrever $g(x)=x^2e^{-x/2}$ e $h(y)=y^4e^{-y}/384$. Suporte é produto cartesiano. Logo $X\perp Y$. ✓

Teorema 4.2.10 — Consequências da Independência
a
$P(X\in A,\,Y\in B)=P(X\in A)\,P(Y\in B)$
b
$E[g(X)h(Y)]=(Eg(X))(Eh(Y))$

Ex. 4.2.11: $X,Y\sim\text{Exp}(1)$ independentes. $E[X^2Y]=(EX^2)(EY)=(\text{Var}\,X+(EX)^2)\cdot1=2$.

Teorema 4.2.12 / 4.2.14 — Soma de Independentes

$M_{X+Y}(t)=M_X(t)M_Y(t)$.  Para normais independentes:

$$X\sim N(\mu,\sigma^2),\;Y\sim N(\gamma,\tau^2)\;\Rightarrow\;X+Y\sim N(\mu+\gamma,\,\sigma^2+\tau^2)$$
§ 4.3
Mistura de Distribuições e Modelos Hierárquicos
Definição 4.4.4 — Distribuição Mista

Uma v.a. $X$ tem distribuição mista se sua distribuição depende de uma quantidade que também possui uma distribuição de probabilidade.

Exemplo 4.4.1 — Hierarquia Binomial-Poisson

Um inseto bota ovos, cada um sobrevivendo com probabilidade $p$:

$X\mid Y\sim\text{Bin}(Y,\,p),\quad Y\sim\text{Poisson}(\lambda)$

Resultado (Ex. 4.4.2): $X\sim\text{Poisson}(\lambda p)$, portanto $EX=\lambda p$.

Exemplo 4.4.6 — Hierarquia Beta-Binomial

$X\mid P\sim\text{Bin}(n,P)$, $\;P\sim\text{Beta}(\alpha,\beta)$:

$$EX=E[nP]=n\cdot\frac{\alpha}{\alpha+\beta}$$
Teorema — Lei das Expectativas Totais

Para quaisquer v.a.s $X$ e $Y$:

$$EX=E\!\left[E(X\mid Y)\right]$$

O "E" interno é sobre $X|Y$; o "E" externo é sobre $Y$.

Teorema — Identidade da Variância Condicional
$$\text{Var}\,X=E\!\left[\text{Var}(X\mid Y)\right]+\text{Var}\!\left[E(X\mid Y)\right]$$

Variância total = variância intragrupo + variância entre grupos.

Hierarquias simplificam tanto a compreensão quanto os cálculos. O Exemplo 4.4.5 mostra que uma hierarquia de 3 estágios (Binomial–Poisson–Exponencial) é equivalente a uma Binomial Negativa.

Simulação — § 4.3
Exemplo 4.4.2 — Hierarquia Binomial-Poisson
Hierarquia (Ex. 4.4.1)

Ovos: $Y\sim\text{Poisson}(\lambda)$

Sobreviventes: $X\mid Y\sim\text{Bin}(Y,p)$

Resultado: $X\sim\text{Poisson}(\lambda p)$

$$EX=E[pY]=p\lambda$$
5.0
0.40
$\lambda p$ = E[X]
2.0
Var(X) = $\lambda p$
2.0
Prova via Lei das Expectativas Totais
$$P(X=x)=\sum_{y=x}^{\infty}\!\binom{y}{x}p^x(1-p)^{y-x}\frac{e^{-\lambda}\lambda^y}{y!}$$

Cancelando termos e aplicando o Teorema Binomial:

$$P(X=x)=\frac{(\lambda p)^x e^{-\lambda p}}{x!}\quad\Rightarrow\quad X\sim\text{Poisson}(\lambda p)$$

A hierarquia facilita o entendimento: ovos são Poisson, sobrevivência é Binomial, e o marginal (sobreviventes) é Poisson com taxa $\lambda p$ — produto das duas taxas.

§ 4.4
Covariância e Correlação
Definição — Covariância
$$\text{Cov}(X,Y)=E\!\left[(X-\mu_X)(Y-\mu_Y)\right]=EXY-\mu_X\mu_Y$$
Definição — Correlação
$$\rho_{XY}=\frac{\text{Cov}(X,Y)}{\sigma_X\,\sigma_Y}$$

Valor padronizado; permite comparar relações em contextos distintos.

Teorema — Independência implica Cov = 0

Se $X$ e $Y$ são independentes, então $\text{Cov}(X,Y)=0$ e $\rho_{XY}=0$.

Atenção: a recíproca não é verdadeira. Cov $= 0$ não implica independência.

Teorema — Variância da Soma Linear
$$\text{Var}(aX+bY)=a^2\text{Var}\,X+b^2\text{Var}\,Y+2ab\,\text{Cov}(X,Y)$$

Se $X\perp Y$: $\text{Var}(aX+bY)=a^2\text{Var}\,X+b^2\text{Var}\,Y$.

Teorema — Limites da Correlação
a
$-1\leq\rho_{XY}\leq1$
b
$|\rho_{XY}|=1\;\Leftrightarrow\;\exists\,a\neq0,b:\;P(Y=aX+b)=1$. Se $\rho=1$: $a>0$; se $\rho=-1$: $a<0$.
Simulação — § 4.4
Dispersão e Correlação — Normal Bivariada
Construção

$X\sim N(0,1)$, $\;Y=\rho X+\sqrt{1-\rho^2}\,Z$

com $Z\sim N(0,1)$ independente de $X$.

$$\text{Cor}(X,Y)=\rho$$
0.00
$\rho$ Teórico
0.00
$\hat\rho$ Amostral
  • $\rho=0$: nuvem circular, sem associação
  • $\rho\to1$: reta crescente; $\rho\to-1$: decrescente
Revisão
Resumo — Seção 4: Variáveis Aleatórias Múltiplas
4.1
Distribuições Conjuntas e Marginais

Vetor aleatório $(X,Y)$: pmf/pdf conjunta $f(x,y)$. Marginais: soma/integral sobre a outra variável. As marginais não determinam a conjunta. CDF: $F(x,y)=P(X\leq x,Y\leq y)$; caso contínuo: $\partial^2F/\partial x\partial y=f(x,y)$.

4.2
Condicional e Independência

$f(y|x)=f(x,y)/f_X(x)$. Independência: $f(x,y)=f_X(x)f_Y(y)$ — critério de fatoração (Lema 4.2.7). Para independentes: $E[g(X)h(Y)]=Eg(X)\cdot Eh(Y)$ e $M_{X+Y}(t)=M_X(t)M_Y(t)$. Soma de normais independentes é normal.

4.3
Mistura de Distribuições

$X$ tem distribuição mista se sua distribuição depende de uma quantidade aleatória. Lei das expectativas totais: $EX=E(E(X|Y))$. Identidade da variância: $\text{Var}\,X=E[\text{Var}(X|Y)]+\text{Var}(E(X|Y))$.

4.4
Covariância e Correlação

$\text{Cov}(X,Y)=EXY-\mu_X\mu_Y$. $\rho=\text{Cov}/(\sigma_X\sigma_Y)\in[-1,1]$. Independência $\Rightarrow$ Cov $=0$ (não o inverso). $|\rho|=1$ $\Leftrightarrow$ relação linear perfeita. $\text{Var}(aX+bY)=a^2\text{Var}X+b^2\text{Var}Y+2ab\,\text{Cov}(X,Y)$.

▶ Próxima seção: Propriedades de Amostras Aleatórias (§ 5) — Estatísticas, Distribuições Amostrais, Lei dos Grandes Números, Teorema do Limite Central