Pointwise mutual information
http://dbpedia.org/resource/Pointwise_mutual_information an entity of type: Software
El Punto de Información Mutua (PIM) o Información Mutua Puntual, (IMP) (en inglés, Pointwise mutual information (PMI)), es una medida de asociación utilizada en la teoría y la estadística de la información. En contraste con la información mutua (Mutual Information, MI), que se basa en PIM, esta se refiere a los eventos individuales, mientras que MI se refiere a la media de todos los eventos posibles.
rdf:langString
自己相互情報量(じこそうごじょうほうりょう、英語: pointwise mutual information、略称: PMI)は、統計学、確率論、情報理論における関連性の尺度である。全ての可能な事象の平均を取る相互情報量(mutual information、MI)とは対照的に、単一の事象を指す。
rdf:langString
Пото́чкова взає́мна інформа́ція (ПВІ, англ. pointwise mutual information, PMI), або то́чкова взає́мна інформа́ція (англ. point mutual information) — це міра пов'язаності, що використовується в теорії інформації та статистиці. На відміну від взаємної інформації (ВІ), що будується на ПВІ, вона стосується одиничних подій, тоді як ВІ стосується усереднення всіх можливих подій.
rdf:langString
In statistics, probability theory and information theory, pointwise mutual information (PMI), or point mutual information, is a measure of association. It compares the probability of two events occurring together to what this probability would be if the events were independent. The concept was introduced in 1961 by Robert Fano under the name of "mutual information", but today that term is instead used for a related measure of dependence between random variables: The mutual information (MI) of two discrete random variables refers to the average PMI of all possible events.
rdf:langString
L'informazione mutua puntuale (IMP) (pointwise mutual information, PMI) (o informazione mutua specifica) è una misura di associazione usata nella teoria dell'informazione e nella statistica. L'IMP di un paio di esiti x e y appartenenti a variabili casuali discrete quantifica la discrepanza tra la probabilità della loro coincidenza data la loro distribuzione congiunta, rispetto alla probabilità della loro coincidenza date soltanto le loro distribuzioni individuali e assumendo l'indipendenza delle variabili. Matematicamente, Ecco un esempio per illustrare:
rdf:langString
rdf:langString
Punto de información mutua
rdf:langString
Informazione mutua puntuale
rdf:langString
自己相互情報量
rdf:langString
Pointwise mutual information
rdf:langString
Поточкова взаємна інформація
xsd:integer
6793679
xsd:integer
1119634228
rdf:langString
El Punto de Información Mutua (PIM) o Información Mutua Puntual, (IMP) (en inglés, Pointwise mutual information (PMI)), es una medida de asociación utilizada en la teoría y la estadística de la información. En contraste con la información mutua (Mutual Information, MI), que se basa en PIM, esta se refiere a los eventos individuales, mientras que MI se refiere a la media de todos los eventos posibles.
rdf:langString
In statistics, probability theory and information theory, pointwise mutual information (PMI), or point mutual information, is a measure of association. It compares the probability of two events occurring together to what this probability would be if the events were independent. PMI (especially in its positive pointwise mutual information variant) has been described as "one of the most important concepts in NLP", where it "draws on the intuition that the best way to weigh the association between two words is to ask how much more the two words co-occur in [a] corpus than we would have a priori expected them to appear by chance." The concept was introduced in 1961 by Robert Fano under the name of "mutual information", but today that term is instead used for a related measure of dependence between random variables: The mutual information (MI) of two discrete random variables refers to the average PMI of all possible events.
rdf:langString
L'informazione mutua puntuale (IMP) (pointwise mutual information, PMI) (o informazione mutua specifica) è una misura di associazione usata nella teoria dell'informazione e nella statistica. L'IMP di un paio di esiti x e y appartenenti a variabili casuali discrete quantifica la discrepanza tra la probabilità della loro coincidenza data la loro distribuzione congiunta, rispetto alla probabilità della loro coincidenza date soltanto le loro distribuzioni individuali e assumendo l'indipendenza delle variabili. Matematicamente, L'informazione mutua di X e Y è il valore atteso dell'informazione mutua specifica di tutti i possibili esiti. La misura è simmetrica. È zero se X e Y sono indipendenti, ed uguale a -log(p(x)) se X e Y sono . Infine, aumenterà se p(x|y) è fissa, ma p(x) diminuisce. Può assumere valori sia negativi che positivi. Ecco un esempio per illustrare: Usando questa tabella possiamo marginalizzare per ottenere la seguente tabella di addizioni Con questo esempio, possiamo calcolare quattro valori per SI(x,y). (Assumendo log in base 2) (Per riferimento la mutua informazione MI(X,Y) sarebbe allora 0,214170945)
rdf:langString
自己相互情報量(じこそうごじょうほうりょう、英語: pointwise mutual information、略称: PMI)は、統計学、確率論、情報理論における関連性の尺度である。全ての可能な事象の平均を取る相互情報量(mutual information、MI)とは対照的に、単一の事象を指す。
rdf:langString
Пото́чкова взає́мна інформа́ція (ПВІ, англ. pointwise mutual information, PMI), або то́чкова взає́мна інформа́ція (англ. point mutual information) — це міра пов'язаності, що використовується в теорії інформації та статистиці. На відміну від взаємної інформації (ВІ), що будується на ПВІ, вона стосується одиничних подій, тоді як ВІ стосується усереднення всіх можливих подій.
xsd:nonNegativeInteger
12391