Sanov's theorem

http://dbpedia.org/resource/Sanov's_theorem an entity of type: Abstraction100002137

Der Satz von Sanov ist ein Resultat des mathematischen Teilgebiets der Stochastik.Er ist eine zentrale Aussage der Theorie der großen Abweichungen (engl. large deviations theory) und zeigt eine enge Verbindung zur Informationstheorie auf. Der Satz formalisiert die Intuition, dass die Gesamtwahrscheinlichkeit eines seltenen Ereignisses von der Wahrscheinlichkeit des plausibelsten Teilereignisses dominiert wird. Er ist nach dem russischen Mathematiker Ivan Nikolajewitsch Sanov (1919–1968) benannt. rdf:langString
Le théorème de Sanov est un résultat de probabilités et statistique fondamentales démontré en 1957. Il établit un principe de grandes déviations pour la mesure empirique d'une suite de variables aléatoires i.i.d. dont la fonction de taux est la divergence de Kullback-Leibler. rdf:langString
Em teoria da informação, o teorema de Sanov dá um limite à probabilidade de observar uma sequência atípica de amostras a partir de uma dada distribuição de probabilidade. rdf:langString
In mathematics and information theory, Sanov's theorem gives a bound on the probability of observing an atypical sequence of samples from a given probability distribution. In the language of large deviations theory, Sanov's theorem identifies the rate function for large deviations of the empirical measure of a sequence of i.i.d. random variables. , where * is the joint probability distribution on , and * is the information projection of q onto A. Furthermore, if A is the closure of its interior, rdf:langString
rdf:langString Satz von Sanov
rdf:langString Théorème de Sanov
rdf:langString Sanov's theorem
rdf:langString Teorema de Sanov
xsd:integer 31587409
xsd:integer 1073446537
rdf:langString Der Satz von Sanov ist ein Resultat des mathematischen Teilgebiets der Stochastik.Er ist eine zentrale Aussage der Theorie der großen Abweichungen (engl. large deviations theory) und zeigt eine enge Verbindung zur Informationstheorie auf. Der Satz formalisiert die Intuition, dass die Gesamtwahrscheinlichkeit eines seltenen Ereignisses von der Wahrscheinlichkeit des plausibelsten Teilereignisses dominiert wird. Er ist nach dem russischen Mathematiker Ivan Nikolajewitsch Sanov (1919–1968) benannt.
rdf:langString In mathematics and information theory, Sanov's theorem gives a bound on the probability of observing an atypical sequence of samples from a given probability distribution. In the language of large deviations theory, Sanov's theorem identifies the rate function for large deviations of the empirical measure of a sequence of i.i.d. random variables. Let A be a set of probability distributions over an alphabet X, and let q be an arbitrary distribution over X (where q may or may not be in A). Suppose we draw n i.i.d. samples from q, represented by the vector . Then, we have the following bound on the probability that the empirical measure of the samples falls within the set A: , where * is the joint probability distribution on , and * is the information projection of q onto A. In words, the probability of drawing an atypical distribution is bounded by a function of the KL divergence from the true distribution to the atypical one; in the case that we consider a set of possible atypical distributions, there is a dominant atypical distribution, given by the information projection. Furthermore, if A is the closure of its interior,
rdf:langString Le théorème de Sanov est un résultat de probabilités et statistique fondamentales démontré en 1957. Il établit un principe de grandes déviations pour la mesure empirique d'une suite de variables aléatoires i.i.d. dont la fonction de taux est la divergence de Kullback-Leibler.
rdf:langString Em teoria da informação, o teorema de Sanov dá um limite à probabilidade de observar uma sequência atípica de amostras a partir de uma dada distribuição de probabilidade.
xsd:nonNegativeInteger 2562

data from the linked data cloud