Inverse probability

http://dbpedia.org/resource/Inverse_probability an entity of type: Abstraction100002137

In probability theory, inverse probability is an obsolete term for the probability distribution of an unobserved variable. Today, the problem of determining an unobserved variable (by whatever method) is called inferential statistics, the method of inverse probability (assigning a probability distribution to an unobserved variable) is called Bayesian probability, the "distribution" of data given the unobserved variable is rather the likelihood function (which is not a probability distribution), and the distribution of an unobserved variable, given both data and a prior distribution, is the posterior distribution. The development of the field and terminology from "inverse probability" to "Bayesian probability" is described by . rdf:langString
В теории вероятностей, обратная вероятность является устаревшим термином для распределения вероятностей ненаблюдаемой переменной. Сегодня, проблема определения распределения ненаблюдаемой переменной (любыми методами) называется статистическим выводом, метод обратной вероятности (приписывание распределения вероятностей ненаблюдаемой переменной) называется байесовской вероятностью, "распределение" ненаблюдаемой переменной при условии наблюдаемых данных как функция правдоподобия (которая не является распределением вероятностей), а распределение ненаблюдаемой переменной при условии наблюдаемых данных и априорного распределения называется . Развитие терминологии из "обратной вероятности" к "байесовской вероятности" описывает Финберг (2006) . Термин "байесовская", который заменил "обратную вероя rdf:langString
rdf:langString Inverse probability
rdf:langString Обратная вероятность
xsd:integer 908703
xsd:integer 971656585
rdf:langString In probability theory, inverse probability is an obsolete term for the probability distribution of an unobserved variable. Today, the problem of determining an unobserved variable (by whatever method) is called inferential statistics, the method of inverse probability (assigning a probability distribution to an unobserved variable) is called Bayesian probability, the "distribution" of data given the unobserved variable is rather the likelihood function (which is not a probability distribution), and the distribution of an unobserved variable, given both data and a prior distribution, is the posterior distribution. The development of the field and terminology from "inverse probability" to "Bayesian probability" is described by . The term "inverse probability" appears in an 1837 paper of De Morgan, in reference to Laplace's method of probability (developed in a 1774 paper, which independently discovered and popularized Bayesian methods, and a 1812 book), though the term "inverse probability" does not occur in these. Fisher uses the term in , referring to "the fundamental paradox of inverse probability" as the source of the confusion between statistical terms that refer to the true value to be estimated, with the actual value arrived at by the estimation method, which is subject to error. Later Jeffreys uses the term in his defense of the methods of Bayes and Laplace, in . The term "Bayesian", which displaced "inverse probability", was introduced by Ronald Fisher in 1950. Inverse probability, variously interpreted, was the dominant approach to statistics until the development of frequentism in the early 20th century by Ronald Fisher, Jerzy Neyman and Egon Pearson. Following the development of frequentism, the terms frequentist and Bayesian developed to contrast these approaches, and became common in the 1950s.
rdf:langString В теории вероятностей, обратная вероятность является устаревшим термином для распределения вероятностей ненаблюдаемой переменной. Сегодня, проблема определения распределения ненаблюдаемой переменной (любыми методами) называется статистическим выводом, метод обратной вероятности (приписывание распределения вероятностей ненаблюдаемой переменной) называется байесовской вероятностью, "распределение" ненаблюдаемой переменной при условии наблюдаемых данных как функция правдоподобия (которая не является распределением вероятностей), а распределение ненаблюдаемой переменной при условии наблюдаемых данных и априорного распределения называется . Развитие терминологии из "обратной вероятности" к "байесовской вероятности" описывает Финберг (2006) . Термин "байесовская", который заменил "обратную вероятность", был на самом деле введен Р.А.Фишером как уничижительный. Термин "обратная вероятность" появился в статье 1837 года Де Моргана в ссылке на лапласовский метод вероятности (разработанный в статье 1774 года, который Лаплас самостоятельно обнаружил, а затем популяризировал методы Байеса в своей книге 1812 года), хотя сам термин "обратная вероятность" и не встречается в этих статьях. Обратная вероятность, по-разному интерпретированная, не была доминирующим подходом к статистике вплоть до развития частотного подхода в начале 20 века Р.А.Фишер, Ежи Нейман и Эгон Пирсон. После разработки частотного подхода, термины частотная и байесовская развивались при противопоставлении этих подходов, и получили широкое распространение в 1950-х годах.
xsd:nonNegativeInteger 4488

data from the linked data cloud