Distribuição de Poisson

Função de probabilidade da distribuição de Poisson para vários valores de λ.

Na teoria da probabilidade e na estatística, a distribuição de Poisson é uma distribuição de probabilidade discreta que expressa a probabilidade de um determinado número de eventos ocorrer em um intervalo fixo de tempo ou espaço se esses eventos ocorrerem com uma taxa média constante conhecida e independentemente do tempo desde o último evento.[1]

A distribuição foi descoberta por Siméon Denis Poisson (1781–1840) e publicada, conjuntamente com a sua teoria da probabilidade, em 1838 no seu trabalho Recherches sur la probabilité des jugements en matières criminelles et matière civile ("Pesquisa sobre a probabilidade em julgamentos sobre matérias criminais e civis"). O trabalho focava-se em certas variáveis aleatórias N que contavam, entre outras coisas, o número de ocorrências discretas de um certo fenômeno durante um intervalo de tempo de determinada duração. A probabilidade de que existam exactamente k ocorrências (k sendo um inteiro não negativo, k = 0, 1, 2, ...) é

f ( k ; λ ) = e λ λ k k ! , {\displaystyle f(k;\lambda )={\frac {e^{-\lambda }\lambda ^{k}}{k!}},\,\!}

onde

  • e é base do logaritmo natural (e = 2.71828...),
  • k! é o fatorial de k,
  • λ é um número real, igual ao número esperado de ocorrências que ocorrem num dado intervalo de tempo. Por exemplo, se o evento ocorre a uma média de 4 minutos, e estamos interessados no número de eventos que ocorrem num intervalo de 10 minutos, usaríamos como modelo a distribuição de Poisson com λ=10/4= 2.5.

Como função de k, esta é a função de probabilidade. A distribuição de Poisson pode ser derivada como um caso limite da distribuição binomial.

Processo de Poisson

Ver artigo principal: Processo de Poisson

A distribuição de Poisson aparece em vários problemas físicos, com a seguinte formulação: considerando uma data inicial (t = 0), seja N(t) o número de eventos que ocorrem até uma certa data t. Por exemplo, N(t) pode ser um modelo para o número de impactos de asteroides maiores que um certo tamanho desde uma certa data de referência.

Uma aproximação que pode ser considerada é que a probabilidade de acontecer um evento em qualquer intervalo não depende (no sentido de independência estatística) da probabilidade de acontecer em qualquer outro intervalo disjunto.

Neste caso, a solução para o problema é o processo estocástico chamado de Processo de Poisson, para o qual vale:

P [ N ( t ) = K ] = e λ t ( λ t ) k k ! , {\displaystyle P[N(t)=K]={\frac {e^{-\lambda t}(\lambda t)^{k}}{k!}},\,\!}

em que λ é uma constante (de unidade inversa da unidade do tempo)[carece de fontes?].

Ou seja, o número de eventos até uma época qualquer t é uma distribuição de Poisson com parâmetro λ t.

Propriedades

Média

O valor esperado de uma distribuição de Poisson é igual a λ. Esta propriedade pode ser derivada facilmente[2]:


Em linguagem matemática Em Português
E [ X ] = k = 0 k P [ X = k ] {\displaystyle E\left[X\right]=\sum _{k=0}^{\infty }k\mathbb {P} \left[X=k\right]} Por definição, a esperança de uma variável aleatória X é igual à soma de cada uma das suas possíveis ocorrências ponderadas pela probabilidade de que estas ocorrências aconteçam.
E [ X ] = k = 0 k [ e λ λ k k ! , ] {\displaystyle E\left[X\right]=\sum _{k=0}^{\infty }k\left[{\frac {e^{-\lambda }\lambda ^{k}}{k!}},\,\!\right]} No caso de variáveis com distribuição, a probabilidade de que determinado evento ocorra é calculado por : f ( k ; λ ) = e λ λ k k ! {\displaystyle f(k;\lambda )={\frac {e^{-\lambda }\lambda ^{k}}{k!}}} . Portanto, este valor foi substituído na fórmula.
E [ X ] = 0 [ e λ λ 0 0 ! , ] k = 0 + 1 [ e λ λ 1 1 ! , ] k = 1 + 2 [ e λ λ 2 2 ! , ] k = 2 + . . . {\displaystyle E\left[X\right]={\begin{matrix}\underbrace {0\left[{\frac {e^{-\lambda }\lambda ^{0}}{0!}},\,\!\right]} \\k=0\end{matrix}}+{\begin{matrix}\underbrace {1\left[{\frac {e^{-\lambda }\lambda ^{1}}{1!}},\,\!\right]} \\k=1\end{matrix}}+{\begin{matrix}\underbrace {2\left[{\frac {e^{-\lambda }\lambda ^{2}}{2!}},\,\!\right]} \\k=2\end{matrix}}+...} Esta expressão equivale à expressão da linha imediatamente superior; apenas se substituiu a expressão de somatório pela soma infinita para melhor compreensão. Note que como o primeiro termo é sempre igual a zero, podemos reescrever E [ X ] = k = 0 k [ e λ λ k k ! ] = k = 1 k [ e λ λ k k ! ] {\displaystyle E\left[X\right]=\sum _{k=0}^{\infty }k\left[{\frac {e^{-\lambda }\lambda ^{k}}{k!}}\right]=\sum _{k=1}^{\infty }k\left[{\frac {e^{-\lambda }\lambda ^{k}}{k!}}\right]}
Como k = 1 k [ e λ λ k k ! ] = k = 1 λ [ e λ λ k 1 ( k 1 ) ! ] {\displaystyle \sum _{k=1}^{\infty }k\left[{\frac {e^{-\lambda }\lambda ^{k}}{k!}}\right]=\sum _{k=1}^{\infty }\lambda \left[{\frac {e^{-\lambda }\lambda ^{k-1}}{(k-1)!}}\right]} Fazemos uma substituição para facilitar o cálculo.
E [ X ] = λ k = 1 [ e λ λ k 1 ( k 1 ) ! ] {\displaystyle E\left[X\right]=\lambda \sum _{k=1}^{\infty }\left[{\frac {e^{-\lambda }\lambda ^{k-1}}{(k-1)!}}\right]} Tomamos a substituição acima e tiramos a constante λ {\displaystyle \lambda } para fora do somatório (pois o primeiro termo da expressão imediatamente superior é igual à λ 1 {\displaystyle \lambda *1} .
E [ X ] = λ e λ k = 0 [ λ k ( k ) ! ] {\displaystyle E\left[X\right]=\lambda e^{-\lambda }\sum _{k=0}^{\infty }\left[{\frac {\lambda ^{k}}{(k)!}}\right]} Nova transformação para facilitar os cálculos...
E [ X ] = λ e λ {\displaystyle E\left[X\right]=\lambda e^{-\lambda }} [ λ 0 ( 0 ) ! + λ 1 ( 1 ) ! + λ 2 ( 2 ) ! + λ 3 ( 3 ) ! + . . . ] {\displaystyle \left[{\frac {\lambda ^{0}}{(0)!}}+{\frac {\lambda ^{1}}{(1)!}}+{\frac {\lambda ^{2}}{(2)!}}+{\frac {\lambda ^{3}}{(3)!}}+...\right]} Abrindo o somatório, verifica-se que a série converge para e λ {\displaystyle e^{\lambda }}
E [ X ] = λ e λ e λ {\displaystyle E\left[X\right]=\lambda e^{-\lambda }e^{\lambda }} Obtemos e λ e λ = e 0 = 1 {\displaystyle e^{-\lambda }e^{\lambda }=e^{0}=1}
E [ X ] = λ {\displaystyle E\left[X\right]=\lambda } Como queríamos demonstrar

Variância ( var ( X ) {\displaystyle \operatorname {var} (X)} , σ X 2 {\displaystyle \sigma _{X}^{2}} ou σ 2 {\displaystyle \sigma ^{2}} )

A variância de uma distribuição de Poisson é igual a λ {\displaystyle \lambda } , como podemos demonstrar.

Sabendo que var ( X ) = E ( X 2 ) ( E ( X ) ) 2 {\displaystyle \operatorname {var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}} e E ( X ) = λ {\displaystyle {E}(X)=\lambda }

Calculamos o segundo momento E ( X 2 ) {\displaystyle {E}(X^{2})} , para uma variável aleatória discreta:

E [ X 2 ] = k = 0 k 2 [ e λ λ k k ! ] {\displaystyle E\left[X^{2}\right]=\sum _{k=0}^{\infty }k^{2}\left[{\frac {e^{-\lambda }\lambda ^{k}}{k!}}\,\!\right]} Expandindo o somatório

E [ X 2 ] = 1 2 [ e λ λ 1 1 ! ] + 2 2 [ e λ λ 2 2 ! ] + 3 2 [ e λ λ 3 3 ! ] + . . . + n 2 [ e λ λ n n ! ] + . . . {\displaystyle E\left[X^{2}\right]=1^{2}\left[{\frac {e^{-\lambda }\lambda ^{1}}{1!}}\,\!\right]+2^{2}\left[{\frac {e^{-\lambda }\lambda ^{2}}{2!}}\,\!\right]+3^{2}\left[{\frac {e^{-\lambda }\lambda ^{3}}{3!}}\,\!\right]+...+n^{2}\left[{\frac {e^{-\lambda }\lambda ^{n}}{n!}}\,\right]+...\!} Simplificando os termos ao quadrado com os fatoriais

E [ X 2 ] = [ e λ λ 1 ] + 2 [ e λ λ 2 ] + 3 [ e λ λ 3 2 ! ] + . . . + n [ e λ λ n ( n 1 ) ! ] + . . . {\displaystyle E\left[X^{2}\right]=\left[{e^{-\lambda }\lambda ^{1}}\right]+2\left[{e^{-\lambda }\lambda ^{2}}\right]+3\left[{\frac {e^{-\lambda }\lambda ^{3}}{2!}}\,\!\right]+...+n\left[{\frac {e^{-\lambda }\lambda ^{n}}{(n-1)!}}\,\right]+...\!} Colocando λ {\displaystyle \lambda } e e λ {\displaystyle e^{-\lambda }} em evidência

E [ X 2 ] = e λ λ [ 1 + 2 λ + 3 λ 2 2 ! + . . . + n λ n 1 ( n 1 ) ! + . . . ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }}{\lambda }{\biggl [}1+2{\lambda }+3{\frac {\lambda ^{2}}{2!}}+...+n{\frac {\lambda ^{n-1}}{(n-1)!}}+...{\biggr ]}}

E [ X 2 ] = e λ λ n = 1 n [ λ n 1 ( n 1 ) ! ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\sum _{n=1}^{\infty }n\left[{\frac {\lambda ^{n-1}}{(n-1)!}}\right]} fazendo n 1 = k {\displaystyle n-1=k} e n = k + 1 {\displaystyle n=k+1}

E [ X 2 ] = e λ λ k = 0 [ k + 1 ] [ λ k k ! ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\sum _{k=0}^{\infty }{\left[k+1\right]}\left[{\frac {\lambda ^{k}}{k!}}\right]}

E [ X 2 ] = e λ λ k = 0 [ k λ k k ! + λ k k ! ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\sum _{k=0}^{\infty }{\left[{k{\frac {\lambda ^{k}}{k!}}}+{\frac {\lambda ^{k}}{k!}}\right]}}

E [ X 2 ] = e λ λ [ k = 0 k λ k k ! + k = 0 λ k k ! ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[\sum _{k=0}^{\infty }{{k{\frac {\lambda ^{k}}{k!}}}+{\sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}}}\right]} Série de Taylor Função Exponencial k = 0 λ k k ! {\displaystyle \sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}} converge para e λ {\displaystyle e^{\lambda }}

E [ X 2 ] = e λ λ [ k = 0 k λ k k ! + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[\sum _{k=0}^{\infty }{{k{\frac {\lambda ^{k}}{k!}}}+e^{\lambda }}\right]} Expandindo o somatório

E [ X 2 ] = e λ λ [ 0 λ 0 0 ! + 1 λ 1 1 ! + 2 λ 2 2 ! + 3 λ 3 3 ! + . . . + k λ k k ! + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[{{0{\frac {\lambda ^{0}}{0!}}}+{1{\frac {\lambda ^{1}}{1!}}}+{2{\frac {\lambda ^{2}}{2!}}}+{3{\frac {\lambda ^{3}}{3!}}}+...+{k{\frac {\lambda ^{k}}{k!}}}+e^{\lambda }}\right]} Simplificando os termos ao quadrado com os fatoriais

E [ X 2 ] = e λ λ [ λ + λ 2 + λ 3 2 ! + . . . + λ k ( k 1 ) ! + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[{{\lambda }+{\lambda ^{2}}+{\frac {\lambda ^{3}}{2!}}+...+{\frac {\lambda ^{k}}{(k-1)!}}+e^{\lambda }}\right]} Colocando λ {\displaystyle \lambda } em evidência

E [ X 2 ] = e λ λ [ λ ( 1 + λ + λ 2 2 ! + . . . + λ k 1 ( k 1 ) ! ) + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[\lambda {\biggl (}{{1}+{\lambda }+{\frac {\lambda ^{2}}{2!}}+...+{\frac {\lambda ^{k-1}}{(k-1)!}}{\biggr )}+e^{\lambda }}\right]}

E [ X 2 ] = e λ λ [ λ k = 1 λ k 1 ( k 1 ) ! + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[\lambda {{\sum _{k=1}^{\infty }{\frac {\lambda ^{k-1}}{(k-1)!}}}+e^{\lambda }}\right]} fazendo k 1 = n {\displaystyle k-1=n}

E [ X 2 ] = e λ λ [ λ n = 0 λ n n ! + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[\lambda {{\sum _{n=0}^{\infty }{\frac {\lambda ^{n}}{n!}}}+e^{\lambda }}\right]} Série de Taylor Função Exponencial n = 0 λ n n ! {\displaystyle \sum _{n=0}^{\infty }{\frac {\lambda ^{n}}{n!}}} converge para e λ {\displaystyle e^{\lambda }}

E [ X 2 ] = e λ λ [ λ e λ + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }{\biggl [}\lambda {e^{\lambda }+e^{\lambda }}{\biggr ]}}

E [ X 2 ] = e λ λ 2 e λ + e λ λ e λ {\displaystyle E\left[X^{2}\right]={e^{-\lambda }}{\lambda ^{2}}{e^{\lambda }}+{e^{-\lambda }{\lambda }{e^{\lambda }}}}

E [ X 2 ] = λ 2 + λ {\displaystyle E\left[X^{2}\right]={\lambda ^{2}}+{\lambda }}

Substituindo E ( X 2 ) {\displaystyle \operatorname {E} (X^{2})} e E ( X ) {\displaystyle {E}(X)} em var ( X ) = E ( X 2 ) ( E ( X ) ) 2 {\displaystyle \operatorname {var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}}

var ( X ) = λ 2 + λ λ 2 {\displaystyle \operatorname {var} (X)={\lambda ^{2}}+{\lambda }-{\lambda ^{2}}}

var ( X ) = λ {\displaystyle \operatorname {var} (X)={\lambda }}

Soma de variáveis

A soma de duas variáveis de Poisson independentes é ainda uma variável de Poisson com parâmetro igual à soma dos respectivos parâmetros. Ou seja, se X i P o i s s o n ( λ i ) {\displaystyle X_{i}\sim \mathrm {Poisson} (\lambda _{i})\,} segue uma distribuição de Poisson com parâmetro λ i {\displaystyle \lambda _{i}\,} e as variáveis aleatórias X i {\displaystyle X_{i}} são estatisticamente independentes, então

Y = i = 1 N X i P o i s s o n ( i = 1 N λ i ) {\displaystyle Y=\sum _{i=1}^{N}X_{i}\sim \mathrm {Poisson} \left(\sum _{i=1}^{N}\lambda _{i}\right)\,} também segue uma distribuição de Poisson cujo parâmetro é igual à soma dos λ i {\displaystyle \lambda _{i}\,} .

Por exemplo, X 1 {\displaystyle X_{1}} é uma variável aleatória que representa o número de óbitos por mil nascimentos na cidade "A" (distribuição de Poisson com média 1,2, digamos) e X 2 {\displaystyle X_{2}} é uma variável aleatória que representa o número de óbitos por mil nascimentos na cidade "B" (variável de Poisson com média 3). Ao todo, o número de óbitos por mil nascimentos nas cidades "A" e "B" têm distribuição de Poisson com média i = 1 2 λ i = 1 , 2 + 3 = 4 , 2 {\displaystyle \sum _{i=1}^{2}\lambda _{i}=1,2+3=4,2} .

Intervalo de confiança

Um método rápido e fácil para calcular um intervalo de confiança de aproximada de λ, é proposto na Guerriero (2012).[3] Dado um conjunto de eventos k (pelo menos 15 - 20) ao longo de um período de tempo T, os limites do intervalo confiança para a frequência são dadas por:

F l o w = ( 1 1.96 k 1 ) k T {\displaystyle F_{low}=(1-{\frac {1.96}{\sqrt {k-1}}}){\frac {k}{T}}}
F u p p = ( 1 + 1.96 k 1 ) k T {\displaystyle F_{upp}=(1+{\frac {1.96}{\sqrt {k-1}}}){\frac {k}{T}}}

em seguida, os limites do parâmetro λ {\displaystyle \lambda } são dadas por: λ l o w = F l o w T ; λ u p p = F u p p T {\displaystyle \lambda _{low}=F_{low}T;\lambda _{upp}=F_{upp}T} .


Exemplos

A distribuição de Poisson representa um modelo probabilístico adequado para o estudo de um grande número de fenômenos observáveis. Eis alguns exemplos:

  • Chamadas telefônicas por unidade de tempo;
  • Defeitos por unidade de área;
  • Acidentes por unidade de tempo;
  • Chegada de clientes a um supermercado por unidade de tempo;
  • Número de glóbulos visíveis ao microscópio por unidade de área;
  • Número de partículas emitidas por uma fonte de material radioativo por unidade de tempo.

Ligações externas

  • Calculadora - Distribuição de Poisson

Referências

  1. Haight, Frank A. (1967). Handbook of the Poisson Distribution. [S.l.]: John Wiley & Sons. ISBN 978-0-471-33932-8  A referência emprega parâmetros obsoletos |Título= (ajuda)
  2. Sayan Mukherjee. Lecture 6.5.- Poisson processes. In: PROBABILITY AND STATISTICS IN ENGINEERING. http://www.isds.duke.edu/courses/Fall06/sta113/poisson.pdf
  3. V, Guerriero (2012). «Power Law Distribution: Method of Multi-scale Inferential Statistics». J. Mod. Math. Fr 


Ícone de esboço Este artigo sobre matemática é um esboço. Você pode ajudar a Wikipédia expandindo-o.
  • v
  • d
  • e
  • v
  • d
  • e
Estatística descritiva
Gráficos estatísticos
Inferência estatística
Estatística não-paramétrica
Análise de sobrevivência
  • Função de sobrevivência
  • Kaplan-Meier
  • Teste log-rank
  • Taxa de falha
  • Proportional hazards models
Amostragem
Distribuição de probabilidade
Correlação
Regressão
Análise multivariada
Séries temporais
  • Modelos para séries temporais
  • Tendência e sazonalidade
  • Modelos de suavização exponencial
  • ARIMA
  • Modelos sazonais