Sanov's theorem
http://dbpedia.org/resource/Sanov's_theorem an entity of type: Abstraction100002137
Der Satz von Sanov ist ein Resultat des mathematischen Teilgebiets der Stochastik.Er ist eine zentrale Aussage der Theorie der großen Abweichungen (engl. large deviations theory) und zeigt eine enge Verbindung zur Informationstheorie auf. Der Satz formalisiert die Intuition, dass die Gesamtwahrscheinlichkeit eines seltenen Ereignisses von der Wahrscheinlichkeit des plausibelsten Teilereignisses dominiert wird. Er ist nach dem russischen Mathematiker Ivan Nikolajewitsch Sanov (1919–1968) benannt.
rdf:langString
Le théorème de Sanov est un résultat de probabilités et statistique fondamentales démontré en 1957. Il établit un principe de grandes déviations pour la mesure empirique d'une suite de variables aléatoires i.i.d. dont la fonction de taux est la divergence de Kullback-Leibler.
rdf:langString
Em teoria da informação, o teorema de Sanov dá um limite à probabilidade de observar uma sequência atípica de amostras a partir de uma dada distribuição de probabilidade.
rdf:langString
In mathematics and information theory, Sanov's theorem gives a bound on the probability of observing an atypical sequence of samples from a given probability distribution. In the language of large deviations theory, Sanov's theorem identifies the rate function for large deviations of the empirical measure of a sequence of i.i.d. random variables. , where
* is the joint probability distribution on , and
* is the information projection of q onto A. Furthermore, if A is the closure of its interior,
rdf:langString
rdf:langString
Satz von Sanov
rdf:langString
Théorème de Sanov
rdf:langString
Sanov's theorem
rdf:langString
Teorema de Sanov
xsd:integer
31587409
xsd:integer
1073446537
rdf:langString
Der Satz von Sanov ist ein Resultat des mathematischen Teilgebiets der Stochastik.Er ist eine zentrale Aussage der Theorie der großen Abweichungen (engl. large deviations theory) und zeigt eine enge Verbindung zur Informationstheorie auf. Der Satz formalisiert die Intuition, dass die Gesamtwahrscheinlichkeit eines seltenen Ereignisses von der Wahrscheinlichkeit des plausibelsten Teilereignisses dominiert wird. Er ist nach dem russischen Mathematiker Ivan Nikolajewitsch Sanov (1919–1968) benannt.
rdf:langString
In mathematics and information theory, Sanov's theorem gives a bound on the probability of observing an atypical sequence of samples from a given probability distribution. In the language of large deviations theory, Sanov's theorem identifies the rate function for large deviations of the empirical measure of a sequence of i.i.d. random variables. Let A be a set of probability distributions over an alphabet X, and let q be an arbitrary distribution over X (where q may or may not be in A). Suppose we draw n i.i.d. samples from q, represented by the vector . Then, we have the following bound on the probability that the empirical measure of the samples falls within the set A: , where
* is the joint probability distribution on , and
* is the information projection of q onto A. In words, the probability of drawing an atypical distribution is bounded by a function of the KL divergence from the true distribution to the atypical one; in the case that we consider a set of possible atypical distributions, there is a dominant atypical distribution, given by the information projection. Furthermore, if A is the closure of its interior,
rdf:langString
Le théorème de Sanov est un résultat de probabilités et statistique fondamentales démontré en 1957. Il établit un principe de grandes déviations pour la mesure empirique d'une suite de variables aléatoires i.i.d. dont la fonction de taux est la divergence de Kullback-Leibler.
rdf:langString
Em teoria da informação, o teorema de Sanov dá um limite à probabilidade de observar uma sequência atípica de amostras a partir de uma dada distribuição de probabilidade.
xsd:nonNegativeInteger
2562