Teorema de Sanov

Em teoria da informação, o teorema de Sanov dá um limite à probabilidade de observar uma sequência atípica de amostras a partir de uma dada distribuição de probabilidade.[1]

Definição

Considere A {\displaystyle A} um conjunto de distribuições de probabilidade sobre um alfabeto X {\displaystyle X} e considere q {\displaystyle q} uma distribuição arbitrária sobre X {\displaystyle X} , sendo que q {\displaystyle q} pode ou não estar em A {\displaystyle A} . Suponha que são retiradas n {\displaystyle n} amostras independentes e identicamente distribuídas a partir de q {\displaystyle q} , representadas pelo vetor x n = x 1 , x 2 , , x n {\displaystyle x^{n}=x_{1},x_{2},\ldots ,x_{n}} . Além disto, deseja-se saber se a distribuição empírica, p ^ x n {\displaystyle {\hat {p}}_{x^{n}}} , das amostras cai no interior do conjunto A {\displaystyle A} — formalmente, escreve-se { x n : p ^ x n A } {\displaystyle \{x^{n}:{\hat {p}}_{x^{n}}\in A\}} . Então,

q n ( x n ) ( n + 1 ) | X | 2 n D K L ( p | | q ) , {\displaystyle q^{n}(x^{n})\leq (n+1)^{|X|}2^{-nD_{\mathrm {KL} }(p^{*}||q)},}

em que

  • q n ( x n ) {\displaystyle q^{n}(x^{n})} é uma abreviação para q ( x 1 ) q ( x 2 ) q ( x n ) {\displaystyle q(x_{1})q(x_{2})\cdots q(x_{n})} e
  • p {\displaystyle p^{*}} é a projeção de informação de q {\displaystyle q} sobre A {\displaystyle A} .

Em palavras, a probabilidade de retirar uma distribuição atípica é proporcional à divergência de Kullback–Leibler da distribuição verdadeira à distribuição atípica. No caso em que consideramos um conjunto de possíveis distribuições atípicas, há uma distribuição atípica dominante, dada pela projeção de informação.

Além disto, se A {\displaystyle A} for o fecho de seu interior,

lim n 1 n log q n ( x n ) = D K L ( p | | q ) . {\displaystyle \lim _{n\to \infty }{\frac {1}{n}}\log q^{n}(x^{n})=-D_{\mathrm {KL} }(p^{*}||q).} [2]

Referências

  1. Sanov, I. N. «On the probability of large deviations of random variables». North Carolina State University. Consultado em 17 de janeiro de 2018 
  2. Cover, Thomas M.; Thomas, Joy A. (28 de novembro de 2012). Elements of Information Theory (em inglês). [S.l.]: John Wiley & Sons. ISBN 9781118585771 
  • v
  • d
  • e
Tempo discreto
Tempo contínuo
Ambos
Campos e outros
Modelos de série temporal
Modelos financeiros
  • Black–Derman–Toy
  • Black–Karasinski
  • Chen
  • Cox–Ingersoll–Ross (CIR)
  • Garman–Kohlhagen
  • Heath–Jarrow–Morton (HJM)
  • Heston
  • Ho–Lee
  • Hull–White
  • LIBOR market
  • Rendleman–Bartter
  • SABR volatility
  • Vašíček
  • Wilkie
Modelos atuariais
  • Bühlmann
  • Cramér–Lundberg
  • Sparre–Anderson
Modelos de filas
Propriedades
Teoremas limites
Desigualdades
Ferramentas
Disciplinas
  • Categoria:Processos estocásticos
Ícone de esboço Este artigo sobre matemática é um esboço. Você pode ajudar a Wikipédia expandindo-o.
  • v
  • d
  • e