Min-entropy (original) (raw)
Min-entropie (značená obvykle ) je pojem z oboru teorie informace. Jedná se o nejkonzervativnější definici entropie z rodiny , tedy o nejkonzervativnější odhad neurčitosti možných výsledků. Různé Rényiho entropie jsou si rovny pro případ rovnoměrného rozdělení, ovšem liší pro jiná rozdělení pravděpodobnosti. Přitom platí, že min-entropie není nikdy větší než a Shannonova entropie není nikdy větší než .
Property | Value |
---|---|
dbo:abstract | Min-entropie (značená obvykle ) je pojem z oboru teorie informace. Jedná se o nejkonzervativnější definici entropie z rodiny , tedy o nejkonzervativnější odhad neurčitosti možných výsledků. Různé Rényiho entropie jsou si rovny pro případ rovnoměrného rozdělení, ovšem liší pro jiná rozdělení pravděpodobnosti. Přitom platí, že min-entropie není nikdy větší než a Shannonova entropie není nikdy větší než . (cs) The min-entropy, in information theory, is the smallest of the Rényi family of entropies, corresponding to the most conservative way of measuring the unpredictability of a set of outcomes, as the negative logarithm of the probability of the most likely outcome. The various Rényi entropies are all equal for a uniform distribution, but measure the unpredictability of a nonuniform distribution in different ways. The min-entropy is never greater than the ordinary or Shannon entropy (which measures the average unpredictability of the outcomes) and that in turn is never greater than the Hartley or max-entropy, defined as the logarithm of the number of outcomes with nonzero probability. As with the classical Shannon entropy and its quantum generalization, the von Neumann entropy, one can define a conditional version of min-entropy. The conditional quantum min-entropy is a one-shot, or conservative, analog of conditional quantum entropy. To interpret a conditional information measure, suppose Alice and Bob were to share a bipartite quantum state . Alice has access to system and Bob to system . The conditional entropy measures the average uncertainty Bob has about Alice's state upon sampling from his own system. The min-entropy can be interpreted as the distance of a state from a maximally entangled state. This concept is useful in quantum cryptography, in the context of privacy amplification (See for example ). (en) En probabilités et en théorie de l'information, l'entropie min d'une variable aléatoire discrète X prenant n valeurs ou sorties possibles 1... n associées au probabilités p1... pn est : La base du logarithme est juste une constante d'échelle. Pour avoir un résultat en bits, il faut utiliser le logarithme en base 2. Ainsi, une distribution a une entropie min d'au moins b bits si aucune sortie n'a une probabilité plus grande que 2-b. L'entropie min est toujours inférieure ou égale à l'entropie de Shannon; avec égalité si toutes les valeurs de X sont équiprobables. L'entropie min est importante dans la théorie des . La notation vient d'une famille paramétrée d'entropies appelée entropie de Rényi, * Portail des probabilités et de la statistique (fr) |
dbo:wikiPageID | 41299452 (xsd:integer) |
dbo:wikiPageLength | 10544 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1112107993 (xsd:integer) |
dbo:wikiPageWikiLink | dbr:Von_Neumann_entropy dbr:Rényi_entropy dbr:Generalized_relative_entropy dbr:Conditional_quantum_entropy dbr:Choi–Jamiołkowski_isomorphism dbc:Quantum_mechanical_entropy dbr:Fidelity_of_quantum_states dbr:Information_theory dbr:Semidefinite_programming dbr:Max-entropy dbr:Shannon_entropy |
dbp:wikiPageUsesTemplate | dbt:Citation_needed dbt:Reflist |
dct:subject | dbc:Quantum_mechanical_entropy |
rdfs:comment | Min-entropie (značená obvykle ) je pojem z oboru teorie informace. Jedná se o nejkonzervativnější definici entropie z rodiny , tedy o nejkonzervativnější odhad neurčitosti možných výsledků. Různé Rényiho entropie jsou si rovny pro případ rovnoměrného rozdělení, ovšem liší pro jiná rozdělení pravděpodobnosti. Přitom platí, že min-entropie není nikdy větší než a Shannonova entropie není nikdy větší než . (cs) En probabilités et en théorie de l'information, l'entropie min d'une variable aléatoire discrète X prenant n valeurs ou sorties possibles 1... n associées au probabilités p1... pn est : La base du logarithme est juste une constante d'échelle. Pour avoir un résultat en bits, il faut utiliser le logarithme en base 2. Ainsi, une distribution a une entropie min d'au moins b bits si aucune sortie n'a une probabilité plus grande que 2-b. La notation vient d'une famille paramétrée d'entropies appelée entropie de Rényi, * Portail des probabilités et de la statistique (fr) The min-entropy, in information theory, is the smallest of the Rényi family of entropies, corresponding to the most conservative way of measuring the unpredictability of a set of outcomes, as the negative logarithm of the probability of the most likely outcome. The various Rényi entropies are all equal for a uniform distribution, but measure the unpredictability of a nonuniform distribution in different ways. The min-entropy is never greater than the ordinary or Shannon entropy (which measures the average unpredictability of the outcomes) and that in turn is never greater than the Hartley or max-entropy, defined as the logarithm of the number of outcomes with nonzero probability. (en) |
rdfs:label | Min-entropie (cs) Entropie min (fr) Min-entropy (en) |
owl:sameAs | wikidata:Min-entropy dbpedia-cs:Min-entropy dbpedia-fr:Min-entropy https://global.dbpedia.org/id/fgEs |
prov:wasDerivedFrom | wikipedia-en:Min-entropy?oldid=1112107993&ns=0 |
foaf:isPrimaryTopicOf | wikipedia-en:Min-entropy |
is dbo:wikiPageRedirects of | dbr:Min_entropy |
is dbo:wikiPageWikiLink of | dbr:Randomness_merger dbr:Rényi_entropy dbr:Generalized_relative_entropy dbr:Fuzzy_extractor dbr:Hartley_function dbr:Leftover_hash_lemma dbr:Randomness_extractor dbr:Information_theory dbr:Extractor_(mathematics) dbr:Quantum_information dbr:Min_entropy |
is foaf:primaryTopic of | wikipedia-en:Min-entropy |