Curso de Verão em Estatística · PPGOM / UFPel
Seção 2

Transformações em
Variáveis Aleatórias

Prof. Regis A. Ely  ·  Programa de Pós-Graduação em Organizações e Mercados
Referência: Casella & Berger, Statistical Inference, Cap. 2
2.1
Distribuições de Funções de V.A.
2.2
Valor Esperado
2.3
Variância e Outros Momentos
2.4
Função Geradora de Momentos
§ 2.1
Distribuição de Funções de V.A. — Visão Geral
Motivação

Se $X$ é uma v.a. com cdf $F_X(x)$, qualquer função $Y = g(X)$ também é uma v.a. Queremos descrever o comportamento probabilístico de $Y$ em termos de $F_X$ e $g$.

$$P(Y\in A)=P(g(X)\in A)=P\!\left(X\in g^{-1}(A)\right)$$

Onde a função inversa generalizada é:

$$g^{-1}(A)=\{x\in\mathcal{X}: g(x)\in A\}$$

Suporte da distribuição

Usamos $\mathcal{X}=\{x: f_X(x)>0\}$ e $\mathcal{Y}=\{y: y=g(x)$ para algum $x\in\mathcal{X}\}$ para rastrear os espaços amostrais corretamente.

Caso Discreto — PMF de Y

Se $X$ é discreta, $\mathcal{X}$ é enumerável e $Y=g(X)$ também é discreta. A PMF de $Y$ é:

$$f_Y(y)=\sum_{x\in g^{-1}(y)}f_X(x),\quad y\in\mathcal{Y}$$

Basta identificar $g^{-1}(y)$ para cada $y$ e somar as probabilidades correspondentes.

Exemplo 2.1.1 — Transformação Binomial (C&B)

Seja $X\sim\text{Binomial}(n,p)$ e $Y=n-X$. Como $g^{-1}(y)=\{n-y\}$:

$$f_Y(y)=f_X(n-y)=\binom{n}{y}(1-p)^y p^{n-y}$$

Logo $Y\sim\text{Binomial}(n,1-p)$. A transformação troca papel de sucesso e fracasso.

§ 2.1
Funções Monótonas — CDF e PDF de Y
Teorema 2.1.3 — CDF de Y via Função Monótona

Seja $X$ v.a. contínua com cdf $F_X(x)$, $Y=g(X)$, $\mathcal{X}$ e $\mathcal{Y}$ os suportes:

a.g crescente: $F_Y(y)=F_X\!\left(g^{-1}(y)\right)$
b.g decrescente: $F_Y(y)=1-F_X\!\left(g^{-1}(y)\right)$

A inversão da inequação na função decrescente ocorre pois $g(x)\leq y \Leftrightarrow x\geq g^{-1}(y)$ quando $g$ é decrescente.

Teorema 2.1.5 — PDF via Jacobiano

Se $g$ é monótona, $f_X(x)$ contínua em $\mathcal{X}$, e $g^{-1}(y)$ diferenciável em $\mathcal{Y}$:

$$\boxed{f_Y(y)=f_X\!\left(g^{-1}(y)\right)\left|\frac{d}{dy}g^{-1}(y)\right|, \quad y\in\mathcal{Y}}$$

O termo $|d g^{-1}/dy|$ é o Jacobiano da transformação.

Exemplo 2.1.4 — Uniforme → Exponencial (C&B)

Seja $X\sim\text{Uniforme}(0,1)$, i.e. $F_X(x)=x$. Defina $Y=g(X)=-\log X$.

Como $g$ é decrescente em $(0,1)$ e $g^{-1}(y)=e^{-y}$:

$$F_Y(y)=1-F_X(e^{-y})=1-e^{-y},\quad y>0$$

Derivando: $f_Y(y)=e^{-y}$, que é a PDF Exponencial(1).

$X\sim\text{Unif}(0,1)\Rightarrow -\log X\sim\text{Exp}(1)$

Base da transformação integral de probabilidade — usada para gerar amostras de qualquer distribuição a partir de uniformes.

Exemplo 2.1.6 — Gama Invertida (C&B)

Seja $X\sim\text{Gama}(n,\beta)$ e $Y=1/X$. Com $g^{-1}(y)=1/y$:

$$f_Y(y)=\frac{1}{(n-1)!\,\beta^n}\left(\frac{1}{y}\right)^{n+1}e^{-1/(\beta y)}$$

Distribuição Gama Invertida.

§ 2.1
Funções Não Monótonas — Teorema da Partição
Teorema 2.1.8 — Partes Monótonas

Seja $X$ com PDF $f_X(x)$ e $Y=g(X)$ onde $g$ não é monótona globalmente. Se existe uma partição $A_0,A_1,\ldots,A_k$ de $\mathcal{X}$ com $P(X\in A_0)=0$ tal que:

  1. $g(x)=g_i(x)$ em cada $A_i$
  2. $g_i$ é monótona em $A_i$
  3. $\mathcal{Y}=\{y=g_i(x): x\in A_i\}$ é o mesmo $\forall i$
  4. $g_i^{-1}(y)$ tem derivada contínua em $\mathcal{Y}$

Então:

$$\boxed{f_Y(y)=\sum_{i=1}^{k}f_X\!\left(g_i^{-1}(y)\right)\left|\frac{d}{dy}g_i^{-1}(y)\right|,\quad y\in\mathcal{Y}}$$
Exemplo 2.1.7 — Transformação Quadrática (C&B)

Seja $X$ contínua qualquer, $Y=X^2$. Partição: $A_1=(-\infty,0)$ com $g_1^{-1}(y)=-\sqrt{y}$ e $A_2=(0,\infty)$ com $g_2^{-1}(y)=\sqrt{y}$. Portanto:

$$f_Y(y)=\frac{1}{2\sqrt{y}}\left[f_X(\sqrt{y})+f_X(-\sqrt{y})\right],\quad y>0$$
Exemplo 2.1.9 — Normal → Qui-quadrada (C&B)

Seja $X\sim N(0,1)$, $Y=X^2$. Aplicando o Teorema 2.1.8 com $f_X(x)=\frac{1}{\sqrt{2\pi}}e^{-x^2/2}$:

$$f_Y(y)=\frac{1}{\sqrt{2\pi}}\cdot\frac{1}{\sqrt{y}}e^{-y/2},\quad y>0$$

Isso é exatamente a PDF Qui-quadrada com 1 grau de liberdade!

$X\sim N(0,1)\;\Rightarrow\;X^2\sim\chi^2_1$

Transformação Integral de Probabilidade

Teorema 2.1.10: Se $X$ tem cdf contínua $F_X$, então $Y=F_X(X)\sim\text{Uniforme}(0,1)$.

Aplicação: gerar observações de qualquer distribuição a partir de uniformes — amostrar $U\sim\text{Unif}(0,1)$ e calcular $F_X^{-1}(U)$.

§ 2.1 · Interativo
Visualização: Como g(X) Transforma uma Distribuição
Escolha a Transformação
Resultado Teórico

O histograma vermelho é a amostra de $X$. O histograma azul é a amostra de $Y=g(X)$. A curva verde é a PDF teórica de $Y$.

Distribuição de X

Distribuição de Y = g(X)

§ 2.2
Valor Esperado
Definição — Valor Esperado (Média)

O valor esperado (ou média) de $g(X)$, denotado $Eg(X)$, é:

$$Eg(X)=\begin{cases}\displaystyle\int_{-\infty}^{\infty}g(x)\,f_X(x)\,dx & \text{X contínua}\\[.6em]\displaystyle\sum_{x\in\mathcal{X}}g(x)\,f_X(x) & \text{X discreta}\end{cases}$$

desde que a integral/soma exista. Se $E|g(X)|=\infty$, dizemos que $Eg(X)$ não existe.

Exemplo 2.2.4 — Distribuição de Cauchy (C&B)

A v.a. de Cauchy tem PDF $f_X(x)=\frac{1}{\pi(1+x^2)}$, $-\infty

Como $E|X|=\frac{2}{\pi}\int_0^\infty\frac{x}{1+x^2}dx=\infty$, o valor esperado não existe.

⚠ $\int f_X=1$ é necessário mas não suficiente para que $EX$ exista.

Exemplo 2.2.2 — Média da Exponencial (C&B)

Seja $X\sim\text{Exp}(\lambda)$, $f_X(x)=\frac{1}{\lambda}e^{-x/\lambda}$, $x\geq 0$. Por integração por partes:

$$EX=\int_0^\infty x\cdot\frac{1}{\lambda}e^{-x/\lambda}dx=\lambda$$
Exemplo 2.2.3 — Média da Binomial (C&B)

Seja $X\sim\text{Bin}(n,p)$. Usando a identidade $x\binom{n}{x}=n\binom{n-1}{x-1}$:

$$EX=\sum_{x=0}^{n}x\binom{n}{x}p^x(1-p)^{n-x}=np$$
Exemplo 2.2.6 — Minimizando a Distância (C&B)

Queremos minimizar $E(X-b)^2$ sobre $b$. Usando $E(X-b)^2=\text{Var}(X)+(EX-b)^2$, a solução é:

$$\min_b E(X-b)^2=E(X-EX)^2\quad\text{em }b=EX$$

A média é o melhor preditor no sentido de erro quadrático médio.

§ 2.2
Propriedades do Operador de Expectativas
Teorema 2.2.5 — Linearidade e Monotonicidade

Seja $X$ v.a. e $a,b,c$ constantes. Para quaisquer $g_1(x)$ e $g_2(x)$ com esperanças que existem:

a.$E(ag_1(X)+bg_2(X)+c)=aEg_1(X)+bEg_2(X)+c$
b.$g_1(x)\geq0\;\forall x\Rightarrow Eg_1(X)\geq0$
c.$g_1(x)\geq g_2(x)\;\forall x\Rightarrow Eg_1(X)\geq Eg_2(X)$
d.$a\leq g_1(x)\leq b\;\forall x\Rightarrow a\leq Eg_1(X)\leq b$

Dois caminhos para $Eg(X)$

É possível calcular $Eg(X)$ de duas formas equivalentes:

Caminho 1 (direto)
$\int g(x)\,f_X(x)\,dx$
Caminho 2 (via $f_Y$)
$\int y\,f_Y(y)\,dy$

O exemplo 2.2.7 (Uniforme→Exp) mostra ambos chegando ao mesmo resultado.

Exemplo 2.2.7 — Uniforme-Exponencial (C&B)

Seja $X\sim\text{Unif}(0,1)$ e $g(X)=-\log X$. Calculando diretamente:

$$Eg(X)=\int_0^1(-\log x)\,dx=\left[x-x\log x\right]_0^1=1$$

Pelo Caminho 2: como $Y\sim\text{Exp}(1)$, temos $EY=1$. ✓

Linearidade — Exemplo Prático

Se $X\sim\text{Bin}(n,p)$, então $EX=np$. Logo:

$$E(X-np)=EX-np=0$$

A variável centrada tem média zero.

Operador Linear

$E$ é um operador linear: $E(aX+b)=aEX+b$. O caso mais simples: se $Y=aX+b$, então a média de $Y$ é simplesmente uma transformação linear da média de $X$.

§ 2.2 · Interativo
Explorador de Valor Esperado
Escolha a Distribuição
Parâmetros
Resultados
$E[X]$ (teórico)
Var$(X)$ (teórico)

PDF / PMF com E[X] (linha tracejada)

§ 2.3
Variância e Outros Momentos
Definição — Momentos

O n-ésimo momento de $X$ é $\mu'_n=EX^n$, e o n-ésimo momento central é:

$$\mu_n=E(X-\mu)^n,\quad\text{onde }\mu=\mu'_1=EX$$
Definição — Variância e Desvio-padrão

A variância é o segundo momento central:

$$\text{Var}\,X=E(X-EX)^2$$

Fórmula alternativa: $\;\text{Var}\,X=EX^2-(EX)^2$

O desvio-padrão é $\sigma=\sqrt{\text{Var}\,X}$ (mesma unidade de $X$).

Teorema 2.3.4 — Variância sob Transformação Linear
$$\text{Var}(aX+b)=a^2\,\text{Var}\,X$$

A constante $b$ translada a distribuição sem afetar a dispersão. O fator $a$ escala a dispersão quadraticamente.

Exemplo 2.3.3 — Variância da Exponencial (C&B)

Para $X\sim\text{Exp}(\lambda)$ com $EX=\lambda$, calculando por integração por partes:

$$\text{Var}\,X=E(X-\lambda)^2=\int_0^\infty(x-\lambda)^2\frac{1}{\lambda}e^{-x/\lambda}dx=\lambda^2$$

Ou usando $\text{Var}\,X=EX^2-(EX)^2$.

Exemplo 2.3.5 — Variância da Binomial (C&B)

Para $X\sim\text{Bin}(n,p)$ com $EX=np$. Calculando $EX^2$ via manipulação de coeficientes binomiais:

$$EX^2=n(n-1)p^2+np$$

Logo: $\;\text{Var}\,X=n(n-1)p^2+np-(np)^2=np(1-p)$

Interpretação da Variância

Mede a dispersão média em torno da média. Se $\text{Var}\,X=0$, então $P(X=EX)=1$. Valores maiores indicam maior variabilidade.

Exp($\lambda$)
$\sigma^2=\lambda^2$
Bin$(n,p)$
$\sigma^2=np(1-p)$
Normal
$\sigma^2=\sigma^2$
§ 2.3 · Interativo
Variância: Efeito dos Parâmetros na Dispersão
Distribuição Normal $N(\mu,\sigma^2)$
$\mu$0
$\sigma$1
Métricas
$E[X]=\mu=$ 0
$\text{Var}(X)=\sigma^2=$ 1
$\text{DP}(X)=\sigma=$ 1

Observe como $\mu$ translada a curva (sem mudar a forma) e $\sigma$ alarga ou estreita a curva. A área sob a curva é sempre 1.

Transformação Linear

Se $Y=aX+b$: $EY=a\mu+b$ e $\text{Var}(Y)=a^2\sigma^2$. Mova os controles para ver o efeito.

§ 2.4
Função Geradora de Momentos (MGF)
Definição — MGF

A função geradora de momentos (FGM) de $X$ com cdf $F_X$ é:

$$M_X(t)=Ee^{tX}$$

desde que este valor esperado exista para $t$ em alguma vizinhança de $0$. Explicitamente:

$$M_X(t)=\begin{cases}\displaystyle\int_{-\infty}^{\infty}e^{tx}f_X(x)\,dx & \text{X contínua}\\[.5em]\displaystyle\sum_x e^{tx}P(X=x) & \text{X discreta}\end{cases}$$
Teorema 2.3.7 — Geração de Momentos

Se $X$ tem FGM $M_X(t)$, então o n-ésimo momento é a n-ésima derivada da FGM avaliada em $t=0$:

$$\boxed{EX^n=M_X^{(n)}(0)=\frac{d^n}{dt^n}M_X(t)\bigg|_{t=0}}$$

A prova usa que $\frac{d}{dt}M_X(t)=EXe^{tX}$, avaliado em $t=0$ dá $EX$.

Exemplo 2.3.8 — MGF da Gama (C&B)

Seja $X\sim\text{Gama}(\alpha,\beta)$, $f_X(x)=\frac{1}{\Gamma(\alpha)\beta^\alpha}x^{\alpha-1}e^{-x/\beta}$. A FGM é:

$$M_X(t)=\frac{1}{\Gamma(\alpha)\beta^\alpha}\int_0^\infty e^{tx}x^{\alpha-1}e^{-x/\beta}dx$$

Reconhecendo o integrando como o núcleo de outra PDF Gama com escala $\beta/(1-\beta t)$:

$$\boxed{M_X(t)=\left(\frac{1}{1-\beta t}\right)^\alpha,\quad t<\frac{1}{\beta}}$$

Derivando: $M_X'(0)=\alpha\beta=EX$ e $M_X''(0)=\alpha(\alpha+1)\beta^2$, logo $\text{Var}\,X=\alpha\beta^2$.

Usos Principais da FGM

  • Gerar momentos: derivadas em $t=0$ fornecem todos os momentos.
  • Caracterizar distribuições: se duas v.a. têm a mesma FGM (numa vizinhança de 0), têm a mesma distribuição.
  • Somas de v.a.: se $X\perp Y$, então $M_{X+Y}(t)=M_X(t)M_Y(t)$.
§ 2.4
FGM — Exemplos e Derivação de Momentos
Normal $N(\mu,\sigma^2)$
$$M_X(t)=e^{\mu t+\frac{\sigma^2 t^2}{2}}$$

Momentos via FGM:

$$M_X'(0)=\mu$$
$$M_X''(0)=\mu^2+\sigma^2$$

$\text{Var}=EX^2-(EX)^2=\sigma^2$ ✓

Normal padrão ($\mu=0,\sigma=1$): $M_X(t)=e^{t^2/2}$

Exponencial (caso especial Gama)

$X\sim\text{Exp}(\beta)$: caso particular da Gama com $\alpha=1$:

$$M_X(t)=\frac{1}{1-\beta t},\quad t<\frac{1}{\beta}$$

Derivando:

$$M_X'(t)=\frac{\beta}{(1-\beta t)^2}$$
$$M_X'(0)=\beta=EX\checkmark$$
$$M_X''(0)=2\beta^2\Rightarrow\text{Var}\,X=\beta^2\checkmark$$
Binomial $\text{Bin}(n,p)$
$$M_X(t)=(pe^t+1-p)^n$$

Derivando:

$$M_X'(t)=npe^t(pe^t+1-p)^{n-1}$$
$$M_X'(0)=np=EX\checkmark$$

$M_X''(0)=np(1-p)+n^2p^2$

$\Rightarrow\text{Var}=np(1-p)\checkmark$

Propr. de somas: Se $X_i\sim\text{Bin}(n_i,p)$ independentes, então $M_{\sum X_i}(t)=\prod(pe^t+1-p)^{n_i}$, logo $\sum X_i\sim\text{Bin}(\sum n_i,p)$.

§ 2.4 · Interativo
FGM: Derivando Momentos Graficamente
Distribuição Gama $(\alpha, \beta)$

$M_X(t)=\left(\frac{1}{1-\beta t}\right)^\alpha$, $\;\;t < 1/\beta$

$\alpha$2
$\beta$1
Momentos via FGM
$E[X]=\alpha\beta=$ 2
$E[X^2]=\alpha(\alpha+1)\beta^2=$ 6
$\text{Var}(X)=\alpha\beta^2=$ 2

A linha vermelha marca a derivada $M'_X(0)=EX$.

O gráfico mostra $M_X(t)$ para $t\in(-1/\beta, 1/\beta)$. A inclinação da tangente em $t=0$ é exatamente $EX=\alpha\beta$.

$M_X(t) = (1-\beta t)^{-\alpha}$ — Inclinação em $t=0$ é $EX$

Revisão
Resumo — Seção 2: Transformações e Expectativas
1
Distribuição de $Y=g(X)$

Discreto: $f_Y(y)=\sum_{x\in g^{-1}(y)}f_X(x)$. Contínuo: usa CDF $F_Y(y)=P(g(X)\leq y)$ e diferencia. Teorema do Jacobiano para $g$ monótona.

2
Funções Não Monótonas

Particionamos $\mathcal{X}$ em partes $A_i$ onde $g_i$ é monótona. A PDF de $Y$ é a soma das contribuições de cada parte: $f_Y(y)=\sum_i f_X(g_i^{-1}(y))|g_i^{-1}{}'(y)|$.

3
Valor Esperado

$EX=\int x f_X(x)dx$ ou $\sum x f_X(x)$. Operador linear: $E(aX+b)=aEX+b$. Pode não existir (ex: Cauchy). $EX$ minimiza $E(X-b)^2$.

4
Variância e Momentos

$\text{Var}(X)=E(X-EX)^2=EX^2-(EX)^2$. Momento central de ordem 2. $\text{Var}(aX+b)=a^2\text{Var}(X)$. Exp: $\lambda^2$; Bin: $np(1-p)$.

5
Função Geradora de Momentos

$M_X(t)=Ee^{tX}$. O n-ésimo momento é $M_X^{(n)}(0)$. Caracteriza a distribuição. Para $X\perp Y$: $M_{X+Y}(t)=M_X(t)M_Y(t)$.

6
FGM da Gama e Casos Especiais

Gama: $M_X(t)=(1-\beta t)^{-\alpha}$. Casos: Exponencial ($\alpha=1$), Qui-quadrada ($\alpha=p/2, \beta=2$). Normal: $M_X(t)=e^{\mu t+\sigma^2t^2/2}$.

▶ Próxima seção: Distribuições de Probabilidade (§ 3) — Discretas e Contínuas, Desigualdade de Chebychev