Fisher information metric
http://dbpedia.org/resource/Fisher_information_metric an entity of type: WikicatStatisticalDistanceMeasures
In information geometry, the Fisher information metric is a particular Riemannian metric which can be defined on a smooth statistical manifold, i.e., a smooth manifold whose points are probability measures defined on a common probability space. It can be used to calculate the informational difference between measurements. The metric is interesting in several respects. By Chentsov’s theorem, the Fisher information metric on statistical models is the only Riemannian metric (up to rescaling) that is invariant under sufficient statistics.
rdf:langString
Информационная метрика Фишера в — это особая риманова метрика, которая может быть определена на гладком , то есть на гладком многообразии, точки которого являются вероятностными мерами из общего вероятностного пространства. Ее можно использовать для расчета информационной разницы между измерениями. Метрика интересна в нескольких отношениях. По теореме Ченцова, информационная метрика Фишера на статистических моделях является единственной (с точностью до масштабирования) римановой метрикой, инвариантной при достаточной статистике.
rdf:langString
rdf:langString
Fisher information metric
rdf:langString
Информационная метрика Фишера
xsd:integer
488687
xsd:integer
1048658690
rdf:langString
In information geometry, the Fisher information metric is a particular Riemannian metric which can be defined on a smooth statistical manifold, i.e., a smooth manifold whose points are probability measures defined on a common probability space. It can be used to calculate the informational difference between measurements. The metric is interesting in several respects. By Chentsov’s theorem, the Fisher information metric on statistical models is the only Riemannian metric (up to rescaling) that is invariant under sufficient statistics. It can also be understood to be the infinitesimal form of the relative entropy (i.e., the Kullback–Leibler divergence); specifically, it is the Hessian of the divergence. Alternately, it can be understood as the metric induced by the flat space Euclidean metric, after appropriate changes of variable. When extended to complex projective Hilbert space, it becomes the Fubini–Study metric; when written in terms of mixed states, it is the quantum Bures metric. Considered purely as a matrix, it is known as the Fisher information matrix. Considered as a measurement technique, where it is used to estimate hidden parameters in terms of observed random variables, it is known as the observed information.
rdf:langString
Информационная метрика Фишера в — это особая риманова метрика, которая может быть определена на гладком , то есть на гладком многообразии, точки которого являются вероятностными мерами из общего вероятностного пространства. Ее можно использовать для расчета информационной разницы между измерениями. Метрика интересна в нескольких отношениях. По теореме Ченцова, информационная метрика Фишера на статистических моделях является единственной (с точностью до масштабирования) римановой метрикой, инвариантной при достаточной статистике. Также ее можно рассматривать как инфинитезимальную форму, а точнее, гессиан относительной энтропии (то есть расстояния Кульбака — Лейблера). С другой стороны, ее можно понимать как метрику, индуцированную евклидовой метрикой плоского пространства, после соответствующей замены переменной. При расширении на комплексное она становится метрикой Фубини — Штуди, а в терминах смешанных состояний это квантовая . В качестве просто матрицы она известна как . В качестве метода измерения, где метрика используется для оценки скрытых параметров с точки зрения наблюдаемых случайных величин, она известна как .
xsd:nonNegativeInteger
23234