Hartley function (original) (raw)

About DBpedia

Hartleyova funkce, kterou zavedl v roce 1928 americký vynálezce , je jedním ze způsobů měření neurčitosti. Pro zadanou konečnou množinu je funkce dána vzorcem: kde značí mohutnost množiny . Je-li základem logaritmu hodnota 2, pak je výsledná jednotka neurčitosti označována shannon. Jedná-li se o přirozený logaritmus o základu e, pak je výsledná jednotka neurčitosti označována . Sám Hartley používal desítkový logaritmus od základu 10, proto je při použití desítkového logaritmu vzniklá jednotka neurčitosti nazývána .

Property Value
dbo:abstract Hartleyova funkce, kterou zavedl v roce 1928 americký vynálezce , je jedním ze způsobů měření neurčitosti. Pro zadanou konečnou množinu je funkce dána vzorcem: kde značí mohutnost množiny . Je-li základem logaritmu hodnota 2, pak je výsledná jednotka neurčitosti označována shannon. Jedná-li se o přirozený logaritmus o základu e, pak je výsledná jednotka neurčitosti označována . Sám Hartley používal desítkový logaritmus od základu 10, proto je při použití desítkového logaritmu vzniklá jednotka neurčitosti nazývána . (cs) The Hartley function is a measure of uncertainty, introduced by Ralph Hartley in 1928. If a sample from a finite set A uniformly at random is picked, the information revealed after the outcome is known is given by the Hartley function where |A denotes the cardinality of A. If the base of the logarithm is 2, then the unit of uncertainty is the shannon (more commonly known as bit). If it is the natural logarithm, then the unit is the nat. Hartley used a base-ten logarithm, and with this base, the unit of information is called the hartley (aka ban or dit) in his honor. It is also known as the Hartley entropy. (en) La función de Hartley es una medida de la incertidumbre, introducida por Ralph Hartley en 1928. Si se elige uniformemente al azar una muestra de un conjunto finito A, la información que se revela con el resultado está dada por la función de Hartley donde A
dbo:wikiPageID 3781180 (xsd:integer)
dbo:wikiPageLength 3836 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 979908386 (xsd:integer)
dbo:wikiPageWikiLink dbr:Rényi_entropy dbr:Min-entropy dbr:Logarithm dbc:Information_theory dbr:Base_(exponentiation) dbr:Cardinality dbr:Base-ten_logarithm dbr:Hartley_(unit) dbr:Bit dbr:Nat_(unit) dbr:Natural_logarithm dbr:Ralph_Hartley dbr:Shannon_(unit) dbr:Uncertainty dbr:Shannon_entropy
dbp:id 6070 (xsd:integer) 6082 (xsd:integer)
dbp:title Derivation of Hartley function (en) Hartley function (en)
dbp:wikiPageUsesTemplate dbt:Reflist dbt:Abs dbt:PlanetMath_attribution
dct:subject dbc:Information_theory
rdfs:comment Hartleyova funkce, kterou zavedl v roce 1928 americký vynálezce , je jedním ze způsobů měření neurčitosti. Pro zadanou konečnou množinu je funkce dána vzorcem: kde značí mohutnost množiny . Je-li základem logaritmu hodnota 2, pak je výsledná jednotka neurčitosti označována shannon. Jedná-li se o přirozený logaritmus o základu e, pak je výsledná jednotka neurčitosti označována . Sám Hartley používal desítkový logaritmus od základu 10, proto je při použití desítkového logaritmu vzniklá jednotka neurčitosti nazývána . (cs) La función de Hartley es una medida de la incertidumbre, introducida por Ralph Hartley en 1928. Si se elige uniformemente al azar una muestra de un conjunto finito A, la información que se revela con el resultado está dada por la función de Hartley donde | A denota la cardinalidad de A. Si la base del logaritmo es 2, la unidad de medida de la incertidumbre es el shannon. Si es el logaritmo natural, entonces la unidad es el nat. Hartley usó un logaritmo en base 10, y en esta base la unidad de información se denomina hartley en su honor. También se conoce como entropía de Hartley. (es) La fonction de Hartley ou entropie de Hartley est une mesure de l'incertitude, introduite par Ralph Hartley en 1928. Si on choisit un échantillon d'un ensemble fini A de façon aléatoire et uniforme, l'information fournie une fois que la sortie est connue est l'entropie de Hartley. Si la base du logarithme est 2, alors l'incertitude se mesure en bits. S'il s'agit du logarithme naturel, alors l'unité est le nat. Hartley quant à lui utilisait le logarithme en base 10, et cette unité d'information est parfois appelée (en) (symbole : hart) en son honneur, ou encore . (fr) The Hartley function is a measure of uncertainty, introduced by Ralph Hartley in 1928. If a sample from a finite set A uniformly at random is picked, the information revealed after the outcome is known is given by the Hartley function where A
rdfs:label Hartleyova funkce (cs) Hartley function (en) Función de Hartley (es) Entropie de Hartley (fr)
owl:sameAs freebase:Hartley function wikidata:Hartley function dbpedia-cs:Hartley function dbpedia-es:Hartley function dbpedia-fr:Hartley function https://global.dbpedia.org/id/2prWB
prov:wasDerivedFrom wikipedia-en:Hartley_function?oldid=979908386&ns=0
foaf:isPrimaryTopicOf wikipedia-en:Hartley_function
is dbo:knownFor of dbr:Ralph_Hartley
is dbo:wikiPageRedirects of dbr:Max-entropy dbr:Max_entropy dbr:Hartley_entropy dbr:Hartley_information dbr:Derivation_of_Hartley_function
is dbo:wikiPageWikiLink of dbr:Redundancy_(information_theory) dbr:Ralph_Hartley dbr:Max-entropy dbr:Max_entropy dbr:Hartley_entropy dbr:Hartley_information dbr:Derivation_of_Hartley_function
is dbp:knownFor of dbr:Ralph_Hartley
is foaf:primaryTopic of wikipedia-en:Hartley_function