Partition function (mathematics)

http://dbpedia.org/resource/Partition_function_(mathematics) an entity of type: WikicatPartitionFunctions

دالة التقسيم في نظرية الاحتمالات ونظرية المعلومات والأنظمة الديناميكية تعميم لتعريف دالة التقسيم في الميكانيكا الإحصائية. rdf:langString
The partition function or configuration integral, as used in probability theory, information theory and dynamical systems, is a generalization of the definition of a partition function in statistical mechanics. It is a special case of a normalizing constant in probability theory, for the Boltzmann distribution. The partition function occurs in many problems of probability theory because, in situations where there is a natural symmetry, its associated probability measure, the Gibbs measure, has the Markov property. This means that the partition function occurs not only in physical systems with translation symmetry, but also in such varied settings as neural networks (the Hopfield network), and applications such as genomics, corpus linguistics and artificial intelligence, which employ Markov rdf:langString
確率論や情報科学や力学系で使用されている分配函数(partition function)は、統計力学で定義されている分配函数の一般化である。確率論では、値の分配函数が、ボルツマン分布である。分配函数は、多くの概念と互いに固く結び付いて、様々な種類の量を計算することが可能な一般的なフレームワークを提供する。特に、分配函数はどのように期待値やグリーン函数を計算するのかを示していて、フレドホルム理論への橋渡しともなっている。 複素射影空間や上の確率変数の設定が、フビニ・スタディ計量を持つよう幾何学化されると、量子力学の理論や、より一般的には場の量子論を結果としてもたらす。これらの理論での分配函数は、経路積分定式化により非常に優れた開発がなされ、大きく成功している。そこでは、本記事でレビューする多くの公式とほぼ同じ公式を導くことができる。しかしながら、基礎となっている測度空間は、確率論では実数に値をとり単純であったことに対し、(量子力学や場の理論の中では)複素数に値をとり、多くの公式の中に余剰なファクタである i が現れる。このファクタを追跡することは困難であるので、ここでは行わない。本記事では、はじめに確率の総和が 1 である古典的な確率論へ焦点を当てる。 rdf:langString
rdf:langString دالة التقسيم (الرياضيات)
rdf:langString 分配函数 (数学)
rdf:langString Partition function (mathematics)
xsd:integer 16846849
xsd:integer 1054016351
rdf:langString دالة التقسيم في نظرية الاحتمالات ونظرية المعلومات والأنظمة الديناميكية تعميم لتعريف دالة التقسيم في الميكانيكا الإحصائية.
rdf:langString The partition function or configuration integral, as used in probability theory, information theory and dynamical systems, is a generalization of the definition of a partition function in statistical mechanics. It is a special case of a normalizing constant in probability theory, for the Boltzmann distribution. The partition function occurs in many problems of probability theory because, in situations where there is a natural symmetry, its associated probability measure, the Gibbs measure, has the Markov property. This means that the partition function occurs not only in physical systems with translation symmetry, but also in such varied settings as neural networks (the Hopfield network), and applications such as genomics, corpus linguistics and artificial intelligence, which employ Markov networks, and Markov logic networks. The Gibbs measure is also the unique measure that has the property of maximizing the entropy for a fixed expectation value of the energy; this underlies the appearance of the partition function in maximum entropy methods and the algorithms derived therefrom. The partition function ties together many different concepts, and thus offers a general framework in which many different kinds of quantities may be calculated. In particular, it shows how to calculate expectation values and Green's functions, forming a bridge to Fredholm theory. It also provides a natural setting for the information geometry approach to information theory, where the Fisher information metric can be understood to be a correlation function derived from the partition function; it happens to define a Riemannian manifold. When the setting for random variables is on complex projective space or projective Hilbert space, geometrized with the Fubini–Study metric, the theory of quantum mechanics and more generally quantum field theory results. In these theories, the partition function is heavily exploited in the path integral formulation, with great success, leading to many formulas nearly identical to those reviewed here. However, because the underlying measure space is complex-valued, as opposed to the real-valued simplex of probability theory, an extra factor of i appears in many formulas. Tracking this factor is troublesome, and is not done here. This article focuses primarily on classical probability theory, where the sum of probabilities total to one.
rdf:langString 確率論や情報科学や力学系で使用されている分配函数(partition function)は、統計力学で定義されている分配函数の一般化である。確率論では、値の分配函数が、ボルツマン分布である。分配函数は、多くの概念と互いに固く結び付いて、様々な種類の量を計算することが可能な一般的なフレームワークを提供する。特に、分配函数はどのように期待値やグリーン函数を計算するのかを示していて、フレドホルム理論への橋渡しともなっている。 複素射影空間や上の確率変数の設定が、フビニ・スタディ計量を持つよう幾何学化されると、量子力学の理論や、より一般的には場の量子論を結果としてもたらす。これらの理論での分配函数は、経路積分定式化により非常に優れた開発がなされ、大きく成功している。そこでは、本記事でレビューする多くの公式とほぼ同じ公式を導くことができる。しかしながら、基礎となっている測度空間は、確率論では実数に値をとり単純であったことに対し、(量子力学や場の理論の中では)複素数に値をとり、多くの公式の中に余剰なファクタである i が現れる。このファクタを追跡することは困難であるので、ここでは行わない。本記事では、はじめに確率の総和が 1 である古典的な確率論へ焦点を当てる。 別な話題として、分配函数は、情報理論への自然な情報幾何学的アプローチを可能とする。そこの分野では、(Fisher information metric)を分配函数から導出された相関函数であると理解できる。情報幾何学では、リーマン多様体を定義するということが起きる。 確率論では、多くの問題の中に分配函数が発生する。自然な対称性を持つ状況下では、状況に付帯する確率測度である(Gibbs measure)はマルコフ性を持つ。このことは、分配函数が遷移的な対称性を持つ場合にのみ発生することを意味している。しかし、そのような変化する状況下では、神経ネットワーク(ホップフィールド・ネットワーク(Hopfield network))やゲノミクス、コーパス言語学や人工知能などの分野への応用があり、(Markov network)や(Markov logic network)という考え方がある。ギッブス測度は、固定されたエネルギー期待値のエントロピーを最大とする性質を持つ唯一の測度でもある。最大エントロピー原理や、これから得られたアルゴリズムの中に分配函数が現れることが、これらの背景となっている。
xsd:nonNegativeInteger 19892

data from the linked data cloud