A v.a. assume valores em um conjunto finito ou enumerável. Probabilidades são atribuídas a pontos individuais via PMF $f_X(x)=P(X=x)$.
$\displaystyle\sum_x f_X(x) = 1$ · $P(X \leq x)=\displaystyle\sum_{t \leq x}f_X(t)$ (escada)
A v.a. assume valores em um intervalo contínuo. Probabilidades são áreas sob a PDF $f_X(x)$: $P(X=x)=0$ para qualquer ponto exato.
$\displaystyle\int_{-\infty}^{\infty}f_X(x)\,dx=1$ · $P(a\leq X\leq b)=\displaystyle\int_a^b f_X(x)\,dx$
Uma distribuição é completamente caracterizada pela sua CDF $F_X(x)=P(X\leq x)$ — contínua para v.a. contínuas, em escada para discretas.
Chancas iguais para todos os $N$ resultados possíveis.
Amostragem sem reposição de uma população finita.
Bernoulli$(p)$ é o caso especial $n=1$: $P(X=1)=p$, $P(X=0)=1-p$. $E[X]=p$, $\text{Var}(X)=p(1-p)$.
Se $X_1,\ldots,X_n\!\sim\!\text{Bernoulli}(p)$ são iid, então $\sum X_i\!\sim\!\text{Bin}(n,p)$.
Contagem de sucessos em $n$ ensaios independentes e idênticos, cada um com probabilidade de sucesso $p$.
O fator $\binom{n}{x}$ conta as maneiras de escolher quais $x$ ensaios resultam em sucesso. A distribuição surge naturalmente da análise combinatória da abordagem clássica.
A aproximação Normal $\approx N(np,np(1-p))$ é válida quando $np\geq5$ e $n(1-p)\geq5$. Tente $n=30$, $p=0{,}5$ e veja a forma de sino emergir!
Soma de Binomiais independentes: se $X\!\sim\!\text{Bin}(n,p)$ e $Y\!\sim\!\text{Bin}(m,p)$, então $X+Y\!\sim\!\text{Bin}(n+m,p)$ pela propriedade da MGF.
$X$ = número de eventos em um intervalo fixo quando eles ocorrem:
Se $X_i\overset{\text{ind}}{\sim}\text{Poisson}(\lambda_i)$, então:
Prova: pela propriedade da MGF.
Unicidade: Poisson é a única distribuição discreta em que média = variância. Isso é útil para diagnóstico em dados de contagem!
Se $X\sim\text{Bin}(n,p_n)$ com $p_n=\lambda/n$ e $n\to\infty$, então para cada $x=0,1,2,\ldots$:
Intuição: Poisson modela eventos raros ($p$ pequeno) em um grande número de oportunidades ($n$ grande) com taxa média $\lambda=np$ fixa.
A Geométrica é a única distribuição discreta sem memória:
O passado não importa: a chance de esperar mais $n$ tentativas é a mesma, independente de quantas já ocorreram.
Tentativas até vender um produto ($p=0{,}2$): em média $1/0{,}2=5$ tentativas, com probabilidade de conseguir logo na 1ª de $20\%$.
Geométrica = Bin. Negativa com $r=1$. A Bin. Negativa conta o número de tentativas até o $r$-ésimo sucesso.
Se $G_1,\ldots,G_r \overset{\text{iid}}{\sim}\text{Geom}(p)$, então $\sum G_i \sim \text{BinNeg}(r,p)$.
Tentativas até 3 vendas ($r=3$, $p=0{,}2$): média $= 3/0{,}2 = 15$ tentativas, variância $= 3(0{,}8)/0{,}04 = 60$.
Se $U\sim\text{Uniforme}(0,1)$ e $F$ é uma CDF contínua, então:
Esse resultado — o Método da Transformação Inversa — é a base de toda geração de números aleatórios em computadores. Todo método de simulação de Monte Carlo começa aqui!
Em contraste com a discreta, a Uniforme Contínua é usada como ponto de partida para gerar qualquer outra distribuição.
Normal Padrão: $Z=\dfrac{X-\mu}{\sigma}\sim N(0,1)$. Tabelas da $N(0,1)$ permitem calcular probabilidades para qualquer $N(\mu,\sigma^2)$.
$P(\mu-\sigma\leq X\leq\mu+\sigma)\approx68{,}3\%$ | $P(\mu-2\sigma\leq X\leq\mu+2\sigma)\approx95{,}4\%$ | $P(\mu-3\sigma\leq X\leq\mu+3\sigma)\approx99{,}7\%$
A Exponencial é a única distribuição contínua sem memória:
Modela tempo de espera entre eventos de Poisson.
Generalização do fatorial: $\Gamma(\alpha)=\int_0^\infty t^{\alpha-1}e^{-t}\,dt$
Gama com $\alpha=p/2$, $\beta=2$
Usada em engenharia e ciências atuariais.
Se $Y\sim N(\mu,\sigma^2)$, então $X=e^Y$ é lognormal.
Para qualquer v.a. $X$ com média $\mu$ e variância $\sigma^2<\infty$, para todo $k>0$:
Equivalentemente, para $\epsilon>0$: $P(|X-\mu|\geq\epsilon)\leq\dfrac{\sigma^2}{\epsilon^2}$
Na Normal, o limite real de $P(|X-\mu|\geq k\sigma)$ é muito menor que $1/k^2$. Veja no gráfico ao lado!
🔴 Limite Chebychev ($1/k^2$) | 🟢 Probabilidade real (Normal)