Min-entropy
http://dbpedia.org/resource/Min-entropy
Min-entropie (značená obvykle ) je pojem z oboru teorie informace. Jedná se o nejkonzervativnější definici entropie z rodiny , tedy o nejkonzervativnější odhad neurčitosti možných výsledků. Různé Rényiho entropie jsou si rovny pro případ rovnoměrného rozdělení, ovšem liší pro jiná rozdělení pravděpodobnosti. Přitom platí, že min-entropie není nikdy větší než a Shannonova entropie není nikdy větší než .
rdf:langString
En probabilités et en théorie de l'information, l'entropie min d'une variable aléatoire discrète X prenant n valeurs ou sorties possibles 1... n associées au probabilités p1... pn est : La base du logarithme est juste une constante d'échelle. Pour avoir un résultat en bits, il faut utiliser le logarithme en base 2. Ainsi, une distribution a une entropie min d'au moins b bits si aucune sortie n'a une probabilité plus grande que 2-b. La notation vient d'une famille paramétrée d'entropies appelée entropie de Rényi,
* Portail des probabilités et de la statistique
rdf:langString
The min-entropy, in information theory, is the smallest of the Rényi family of entropies, corresponding to the most conservative way of measuring the unpredictability of a set of outcomes, as the negative logarithm of the probability of the most likely outcome. The various Rényi entropies are all equal for a uniform distribution, but measure the unpredictability of a nonuniform distribution in different ways. The min-entropy is never greater than the ordinary or Shannon entropy (which measures the average unpredictability of the outcomes) and that in turn is never greater than the Hartley or max-entropy, defined as the logarithm of the number of outcomes with nonzero probability.
rdf:langString
rdf:langString
Min-entropie
rdf:langString
Entropie min
rdf:langString
Min-entropy
xsd:integer
41299452
xsd:integer
1112107993
rdf:langString
Min-entropie (značená obvykle ) je pojem z oboru teorie informace. Jedná se o nejkonzervativnější definici entropie z rodiny , tedy o nejkonzervativnější odhad neurčitosti možných výsledků. Různé Rényiho entropie jsou si rovny pro případ rovnoměrného rozdělení, ovšem liší pro jiná rozdělení pravděpodobnosti. Přitom platí, že min-entropie není nikdy větší než a Shannonova entropie není nikdy větší než .
rdf:langString
The min-entropy, in information theory, is the smallest of the Rényi family of entropies, corresponding to the most conservative way of measuring the unpredictability of a set of outcomes, as the negative logarithm of the probability of the most likely outcome. The various Rényi entropies are all equal for a uniform distribution, but measure the unpredictability of a nonuniform distribution in different ways. The min-entropy is never greater than the ordinary or Shannon entropy (which measures the average unpredictability of the outcomes) and that in turn is never greater than the Hartley or max-entropy, defined as the logarithm of the number of outcomes with nonzero probability. As with the classical Shannon entropy and its quantum generalization, the von Neumann entropy, one can define a conditional version of min-entropy. The conditional quantum min-entropy is a one-shot, or conservative, analog of conditional quantum entropy. To interpret a conditional information measure, suppose Alice and Bob were to share a bipartite quantum state . Alice has access to system and Bob to system . The conditional entropy measures the average uncertainty Bob has about Alice's state upon sampling from his own system. The min-entropy can be interpreted as the distance of a state from a maximally entangled state. This concept is useful in quantum cryptography, in the context of privacy amplification (See for example ).
rdf:langString
En probabilités et en théorie de l'information, l'entropie min d'une variable aléatoire discrète X prenant n valeurs ou sorties possibles 1... n associées au probabilités p1... pn est : La base du logarithme est juste une constante d'échelle. Pour avoir un résultat en bits, il faut utiliser le logarithme en base 2. Ainsi, une distribution a une entropie min d'au moins b bits si aucune sortie n'a une probabilité plus grande que 2-b. L'entropie min est toujours inférieure ou égale à l'entropie de Shannon; avec égalité si toutes les valeurs de X sont équiprobables. L'entropie min est importante dans la théorie des . La notation vient d'une famille paramétrée d'entropies appelée entropie de Rényi,
* Portail des probabilités et de la statistique
xsd:nonNegativeInteger
10544