Curso de Verão em Estatística · PPGOM / UFPel
Seção 3

Distribuições de Probabilidade

Prof. Regis A. Ely  ·  Programa de Pós-Graduação em Organizações e Mercados
Referência: Casella & Berger, Statistical Inference, Cap. 3 (§§ 3.1–3.3 e Teo. 3.6.1)
3.1
Distribuições Discretas
Interativo: Explorador Binomial
Interativo: Poisson → Binomial
3.2
Distribuições Contínuas
Interativo: Explorador Normal
3.3
Relações e Desigualdade de Chebychev
§ 3
Variáveis Aleatórias: Discretas vs. Contínuas

⋮ Discretas — Contagem

A v.a. assume valores em um conjunto finito ou enumerável. Probabilidades são atribuídas a pontos individuais via PMF $f_X(x)=P(X=x)$.

Uniforme Binomial Poisson Geométrica Bin. Negativa Hipergeométrica

$\displaystyle\sum_x f_X(x) = 1$  ·  $P(X \leq x)=\displaystyle\sum_{t \leq x}f_X(t)$  (escada)

∼ Contínuas — Medição

A v.a. assume valores em um intervalo contínuo. Probabilidades são áreas sob a PDF $f_X(x)$:  $P(X=x)=0$ para qualquer ponto exato.

Uniforme Normal Exponencial Gama Qui-quadrada Weibull Lognormal

$\displaystyle\int_{-\infty}^{\infty}f_X(x)\,dx=1$  ·  $P(a\leq X\leq b)=\displaystyle\int_a^b f_X(x)\,dx$

Uma distribuição é completamente caracterizada pela sua CDF $F_X(x)=P(X\leq x)$ — contínua para v.a. contínuas, em escada para discretas.

§ 3.1
Uniforme Discreta e Hipergeométrica
Uniforme Discreta (N)
$P(X=x)=\dfrac{1}{N}$
Propriedades Suporte$x\in\{1,2,\ldots,N\}$ Parâm.$N$ (inteiro positivo) Média$\dfrac{N+1}{2}$ Variância$\dfrac{N^2-1}{12}$
Intuição & Exemplo

Chancas iguais para todos os $N$ resultados possíveis.

  • Dado justo: $N=6$, $P(\text{cada face})=\frac{1}{6}$, média $= 3{,}5$
  • Sorteio de loteria com $N$ bilhetes
Hipergeométrica (N, M, n)
$P(X=x)=\dfrac{\displaystyle\binom{M}{x}\binom{N-M}{n-x}}{\displaystyle\binom{N}{n}}$
Propriedades Suporte$x\in\{\max(0,n{-}N{+}M),\ldots,\min(n,M)\}$ Parâm.$N$ (pop.), $M$ (sucessos), $n$ (amostra) Média$n\dfrac{M}{N}$ Variância$n\frac{M}{N}\!\left(1-\frac{M}{N}\right)\!\frac{N-n}{N-1}$
Intuição & Exemplo

Amostragem sem reposição de uma população finita.

  • Retirar $n=5$ cartas de $N=52$, com $M=13$ copas: $P(X=2)$?
  • Difere da Binomial: extrações não são independentes
§ 3.1
Binomial e Bernoulli
Binomial (n, p)
$P(X=x)=\dbinom{n}{x}p^x(1-p)^{n-x}$
Propriedades Suporte$x\in\{0,1,2,\ldots,n\}$ Parâm.$n\in\mathbb{Z}^+$, $p\in(0,1)$ Média$np$ Variância$np(1-p)$ MGF$(1-p+pe^t)^n$

Bernoulli$(p)$ é o caso especial $n=1$:  $P(X=1)=p$,  $P(X=0)=1-p$.   $E[X]=p$,  $\text{Var}(X)=p(1-p)$.

Se $X_1,\ldots,X_n\!\sim\!\text{Bernoulli}(p)$ são iid, então $\sum X_i\!\sim\!\text{Bin}(n,p)$.

Quando usar?

Contagem de sucessos em $n$ ensaios independentes e idênticos, cada um com probabilidade de sucesso $p$.

Exemplos
  • Lançar 10 moedas: $X=$ nº de caras  $\sim\text{Bin}(10,0{,}5)$
  • Pesquisa com 200 eleitores: $X=$ nº que aprovam a política
  • Controle de qualidade: $X=$ defeituosos em lote de 50
  • Aprovação em concurso com 30 questões: $X=$ acertos
Combinatória

O fator $\binom{n}{x}$ conta as maneiras de escolher quais $x$ ensaios resultam em sucesso. A distribuição surge naturalmente da análise combinatória da abordagem clássica.

Simulação Interativa
Explorador da Distribuição Binomial
n 10
p 0.50
Média (np)
5.00
Variância
2.50
Desvio-padrão
1.58
P(X = Moda)
O que observar
  • $p=0{,}5$: distribuição simétrica
  • $p<0{,}5$: assimétrica à direita; $p>0{,}5$: à esquerda
  • $n$ grande + $p$ moderado: aproxima Normal
Regra prática

A aproximação Normal $\approx N(np,np(1-p))$ é válida quando $np\geq5$ e $n(1-p)\geq5$. Tente $n=30$, $p=0{,}5$ e veja a forma de sino emergir!

Soma de Binomiais independentes: se $X\!\sim\!\text{Bin}(n,p)$ e $Y\!\sim\!\text{Bin}(m,p)$, então $X+Y\!\sim\!\text{Bin}(n+m,p)$ pela propriedade da MGF.

§ 3.1
Distribuição de Poisson
Poisson (λ)
$P(X=x)=\dfrac{e^{-\lambda}\lambda^x}{x!}$
Propriedades Suporte$x\in\{0,1,2,\ldots\}$ Parâm.$\lambda>0$ (taxa média) Média$\lambda$ Variância$\lambda$  (= média!) MGF$\exp(\lambda(e^t-1))$
Processo de Poisson

$X$ = número de eventos em um intervalo fixo quando eles ocorrem:

  • À taxa média $\lambda$ constante
  • De forma independente uns dos outros
  • Não podem ocorrer simultaneamente
Exemplos
  • Chamadas telefônicas por hora em uma central ($\lambda=5$)
  • Falhas em 1 km de cabo de fibra óptica ($\lambda=0{,}2$)
  • Chegadas de clientes por minuto ($\lambda=3$)
  • Acidentes de trânsito por semana em um cruzamento
  • Erros de digitação por página de texto
Soma de Poissons independentes

Se $X_i\overset{\text{ind}}{\sim}\text{Poisson}(\lambda_i)$, então:

$\sum_{i=1}^k X_i \sim \text{Poisson}\!\left(\sum_{i=1}^k\lambda_i\right)$

Prova: pela propriedade da MGF.

Unicidade: Poisson é a única distribuição discreta em que média = variância. Isso é útil para diagnóstico em dados de contagem!

Simulação Interativa
Poisson como Limite da Binomial
λ 3.0
n 30
Poisson(λ) Binomial(n, λ/n)
λ = np
3.0
p = λ/n
0.100
Erro máx.
Teorema — Aproximação de Poisson

Se $X\sim\text{Bin}(n,p_n)$ com $p_n=\lambda/n$ e $n\to\infty$, então para cada $x=0,1,2,\ldots$:

$$\binom{n}{x}p_n^x(1-p_n)^{n-x}\;\xrightarrow{n\to\infty}\;\frac{e^{-\lambda}\lambda^x}{x!}$$
O que observar
  • n pequeno: as distribuições diferem visivelmente
  • n grande, p pequeno: quase sobrepostas
  • Fixe $\lambda$ e aumente $n$ — observe a convergência
  • A aproximação é boa quando $n\geq20$ e $p\leq0{,}05$

Intuição: Poisson modela eventos raros ($p$ pequeno) em um grande número de oportunidades ($n$ grande) com taxa média $\lambda=np$ fixa.

§ 3.1
Geométrica e Binomial Negativa
Geométrica (p)
$P(X=x)=p(1-p)^{x-1}$
Propriedades Suporte$x\in\{1,2,3,\ldots\}$ Parâm.$p\in(0,1)$ Média$1/p$ Variância$(1-p)/p^2$
Propriedade da falta de memória

A Geométrica é a única distribuição discreta sem memória:

$P(X>m+n\mid X>m)=P(X>n)$

O passado não importa: a chance de esperar mais $n$ tentativas é a mesma, independente de quantas já ocorreram.

Exemplo

Tentativas até vender um produto ($p=0{,}2$): em média $1/0{,}2=5$ tentativas, com probabilidade de conseguir logo na 1ª de $20\%$.

Binomial Negativa (r, p)
$P(X=x)=\dbinom{x-1}{r-1}p^r(1-p)^{x-r}$
Propriedades Suporte$x\in\{r, r+1, r+2,\ldots\}$ Parâm.$r\in\mathbb{Z}^+$, $p\in(0,1)$ Média$r/p$ Variância$r(1-p)/p^2$
Relação com Geométrica

Geométrica = Bin. Negativa com $r=1$. A Bin. Negativa conta o número de tentativas até o $r$-ésimo sucesso.

Se $G_1,\ldots,G_r \overset{\text{iid}}{\sim}\text{Geom}(p)$, então $\sum G_i \sim \text{BinNeg}(r,p)$.

Exemplo

Tentativas até 3 vendas ($r=3$, $p=0{,}2$): média $= 3/0{,}2 = 15$ tentativas, variância $= 3(0{,}8)/0{,}04 = 60$.

§ 3.2
Distribuições Contínuas — Uniforme
O que muda para o caso contínuo
  • O suporte é um intervalo em $\mathbb{R}$ — não-enumerável
  • $P(X=x)=0$ para qualquer $x$ específico
  • Probabilidade = área sob a curva da PDF
  • A PDF $f_X(x)$ pode ser $>1$ (não é probabilidade direta!)
Uniforme Contínua (a, b)
$f(x)=\dfrac{1}{b-a}$
Propriedades Suporte$x\in[a,b]$ Parâm.$a,b\in\mathbb{R}$, $a<b$ Média$(a+b)/2$ Variância$(b-a)^2/12$ CDF$(x-a)/(b-a)$
Papel teórico fundamental

Se $U\sim\text{Uniforme}(0,1)$ e $F$ é uma CDF contínua, então:

$X = F^{-1}(U) \sim F$

Esse resultado — o Método da Transformação Inversa — é a base de toda geração de números aleatórios em computadores. Todo método de simulação de Monte Carlo começa aqui!

Exemplos
  • Erros de arredondamento: $X\sim U(-0{,}5,\,0{,}5)$
  • Chegada aleatória de ônibus: $X\sim U(0,\,15)$ minutos
  • $\texttt{runif(n)}$ no R gera amostras de $U(0,1)$

Em contraste com a discreta, a Uniforme Contínua é usada como ponto de partida para gerar qualquer outra distribuição.

§ 3.2
Distribuição Normal (Gaussiana)
Normal (μ, σ²)
$f(x)=\dfrac{1}{\sqrt{2\pi\sigma^2}}\,\exp\!\left(-\dfrac{(x-\mu)^2}{2\sigma^2}\right)$
Propriedades Suporte$x\in(-\infty,\infty)$ Parâm.$\mu\in\mathbb{R}$, $\sigma^2>0$ Média$\mu$ Variância$\sigma^2$ Moda/Mediana$\mu$  (simétrica) MGF$\exp(\mu t+\frac{1}{2}\sigma^2 t^2)$

Normal Padrão: $Z=\dfrac{X-\mu}{\sigma}\sim N(0,1)$. Tabelas da $N(0,1)$ permitem calcular probabilidades para qualquer $N(\mu,\sigma^2)$.

Por que a Normal é tão importante?
  • Teorema do Limite Central: soma de muitas v.a. iid converge para Normal
  • Erros de medição: soma de perturbações aleatórias pequenas
  • Base da inferência: testes $t$, $F$ e $\chi^2$ derivam dela
  • Fechada sob somas: $X+Y\sim N(\mu_X+\mu_Y,\sigma^2_X+\sigma^2_Y)$
Exemplos
  • Altura de adultos, erros de pesagem
  • Retorno de ativos (aproximação)
  • Resultado de soma de $n$ lançamentos de dado

$P(\mu-\sigma\leq X\leq\mu+\sigma)\approx68{,}3\%$  |  $P(\mu-2\sigma\leq X\leq\mu+2\sigma)\approx95{,}4\%$  |  $P(\mu-3\sigma\leq X\leq\mu+3\sigma)\approx99{,}7\%$

Simulação Interativa
Explorador da Distribuição Normal
μ 0.0
σ 1.0
Sombrear:
P(μ±kσ)
68.27%
P(X ≤ μ)
50.00%
Curtose
0 (mesocúrtica)
Regra Empírica (68-95-99.7)
68,27% dos dados estão a 1 desvio-padrão da média
95,45% dos dados estão a 2 desvios-padrão
99,73% dos dados estão a 3 desvios-padrão
Observe
  • $\mu$ desloca a curva (localização)
  • $\sigma$ altera a largura (dispersão)
  • Curva sempre simétrica em $\mu$
  • Área total sempre $= 1$
§ 3.2
Exponencial e Gama
Exponencial (β)
$f(x)=\dfrac{1}{\beta}e^{-x/\beta}$
Propriedades Suporte$x\in[0,\infty)$ Parâm.$\beta>0$ (escala) Média$\beta$ Variância$\beta^2$ CDF$1-e^{-x/\beta}$
Falta de memória (contínua)

A Exponencial é a única distribuição contínua sem memória:

$P(X>s+t\mid X>s)=P(X>t)$

Modela tempo de espera entre eventos de Poisson.

Exemplos
  • Tempo entre chegadas de clientes ($\beta=1/\lambda$)
  • Vida útil de componentes eletrônicos
  • Tempo até próxima falha em processo confiável
Gama (α, β)
$f(x)=\dfrac{1}{\Gamma(\alpha)\beta^\alpha}x^{\alpha-1}e^{-x/\beta}$
Propriedades Suporte$x\in(0,\infty)$ Parâm.$\alpha>0$ (forma), $\beta>0$ (escala) Média$\alpha\beta$ Variância$\alpha\beta^2$
Função Gama — $\Gamma(\alpha)$

Generalização do fatorial: $\Gamma(\alpha)=\int_0^\infty t^{\alpha-1}e^{-t}\,dt$

  • $\Gamma(n)=(n-1)!$ para $n\in\mathbb{Z}^+$
  • $\Gamma(1/2)=\sqrt{\pi}$
Exemplos e casos especiais
  • Tempo até o $\alpha$-ésimo evento de Poisson
  • $\alpha=1$: Exponencial$(\beta)$ ← caso especial
  • $\alpha$ inteiro: soma de $\alpha$ Exponenciais iid
  • Amplamente usada em econometria bayesiana
§ 3.2
Qui-quadrada, Weibull e Lognormal
Qui-quadrada (p)
$f(x)=\dfrac{x^{(p/2)-1}e^{-x/2}}{\Gamma(p/2)\,2^{p/2}}$
Propriedades Parâm.$p\in\mathbb{Z}^+$ (g.l.) Média$p$ Variância$2p$
Papel em Inferência
  • $Z_i\overset{\text{iid}}{\sim}N(0,1)\Rightarrow\sum Z_i^2\sim\chi^2_p$
  • $(n-1)S^2/\sigma^2\sim\chi^2_{n-1}$
  • Base de testes de variância e bondade de ajuste

Gama com $\alpha=p/2$, $\beta=2$

Weibull (γ, β)
$f(x)=\dfrac{\gamma}{\beta}\,x^{\gamma-1}e^{-x^\gamma/\beta}$
Propriedades Parâm.$\gamma>0$ (forma), $\beta>0$ (escala) Média$\beta^{1/\gamma}\Gamma(1+1/\gamma)$ CDF$1-e^{-x^\gamma/\beta}$
Análise de Sobrevivência
  • $\gamma<1$: taxa de falha decrescente
  • $\gamma=1$: Exponencial (taxa constante)
  • $\gamma>1$: taxa de falha crescente (desgaste)

Usada em engenharia e ciências atuariais.

Lognormal (μ, σ²)
$f(x)=\dfrac{1}{x\sqrt{2\pi\sigma^2}}\exp\!\left(-\dfrac{(\ln x-\mu)^2}{2\sigma^2}\right)$
Propriedades Parâm.$\mu\in\mathbb{R}$, $\sigma^2>0$ Média$e^{\mu+\sigma^2/2}$ Variância$e^{2\mu+\sigma^2}(e^{\sigma^2}-1)$
Origem e Aplicações

Se $Y\sim N(\mu,\sigma^2)$, então $X=e^Y$ é lognormal.

  • Preços de ativos, renda, imóveis
  • Crescimento multiplicativo de grandezas
  • Amplamente usada em finanças (Black-Scholes)
§ 3.3
Família das Distribuições — Relações Principais
Discretas
Contínuas
Bernoulli
$p$
$P(X=1)=p$
Binomial
$(n,p)$
$\binom{n}{k}p^k(1-p)^{n-k}$
Poisson
$\lambda$
$e^{-\lambda}\lambda^k/k!$
Geométrica
$p$
$p(1-p)^{x-1}$
Bin. Negativa
$(r,p)$
$\binom{x-1}{r-1}p^r(1-p)^{x-r}$
Gama
$(\alpha,\beta)$
$x^{\alpha-1}e^{-x/\beta}/[\Gamma(\alpha)\beta^\alpha]$
Exponencial
$\beta$
$\beta^{-1}e^{-x/\beta}$
Qui-quadrada
$p$
$\alpha=p/2,\ \beta=2$
Normal
$(\mu,\sigma^2)$
curva em sino
Lognormal
$(\mu,\sigma^2)$
$X=e^Y,\ Y\sim N$
t de Student
$(n-1\ \text{g.l.})$
$T=(\bar X-\mu)/(S/\sqrt{n})$
F
$(n-1,m-1)$
razão de $\chi^2/\text{g.l.}$
$n$ iid
$n\to\infty,$
$p\to0$
$np=\lambda$
ensaios
até 1º
$r=1$
$\alpha=1$
$\alpha=p/2,$
$\beta=2$
exp
$\sigma^2$ desconhecido
usa-se $S^2$
CLT (n grande)
Legenda:
transformação / caso especial
estatística amostral derivada
limite assintótico
aproximação (CLT)
distribuição-mãe (Gama, Normal)
família discreta
§ 3.3
Desigualdade de Chebychev
Teorema — Desigualdade de Chebychev

Para qualquer v.a. $X$ com média $\mu$ e variância $\sigma^2<\infty$, para todo $k>0$:

$$P(|X-\mu|\geq k\sigma)\leq\frac{1}{k^2}$$

Equivalentemente, para $\epsilon>0$:  $P(|X-\mu|\geq\epsilon)\leq\dfrac{\sigma^2}{\epsilon^2}$

Poder da desigualdade
  • Válida para qualquer distribuição com variância finita
  • Não assume nenhuma forma específica da distribuição
  • Base para a Lei Fraca dos Grandes Números
  • Conservadora: o limite real é frequentemente menor

Na Normal, o limite real de $P(|X-\mu|\geq k\sigma)$ é muito menor que $1/k^2$. Veja no gráfico ao lado!

k 1.5
k
1.5
Limite 1/k²
44.44%
Normal real
13.36%
Razão
3.3×

🔴 Limite Chebychev ($1/k^2$)  |  🟢 Probabilidade real (Normal)

§ R
Aplicações no R — Famílias de Funções
Sistema de prefixos no R
d density PDF $f(x)$ ou PMF $P(X=x)$ p probability CDF $F(x)=P(X\leq x)$ q quantile Inversa da CDF $F^{-1}(p)$ r random Geração de amostras aleatórias
Sufixos das distribuições
normNormal binomBinomial poisPoisson geomGeométrica nbinomBin. Negativa hyperHipergeométrica gammaGama chisqQui-quadrada expExponencial lnormLognormal weibullWeibull unifUniforme
# Discretas — Binomial e Poisson dbinom(x=2, size=4, prob=0.5) # P(X=2), Bin(4,0.5) pbinom(q=2, size=4, prob=0.5) # P(X≤2) qbinom(p=0.975, size=4, prob=0.5) # quantil 97.5% rbinom(n=100, size=4, prob=0.5) # 100 amostras dpois(x=3, lambda=5) # P(X=3), Poisson(5) ppois(q=3, lambda=5) # P(X≤3) # Contínuas — Normal e Qui-quadrada pnorm(1.96) # P(Z≤1.96) ≈ 0.975 qnorm(0.975) # retorna 1.96 pnorm(q=2, mean=5, sd=2) # N(5,4): P(X≤2) pchisq(q=9.488, df=4) # χ²(4): P(X≤9.49) qchisq(p=0.95, df=4) # valor crítico 5% # Outras distribuições pgamma(q=3, shape=2, scale=1) # Gama(2,1) rlnorm(n=1000, meanlog=0, sdlog=1) # amostra lognormal rweibull(n=100, shape=2, scale=1) # amostra Weibull