Binary entropy function (original) (raw)

About DBpedia

情報理論において、二値エントロピー関数(にちエントロピーかんすう、binary entropy function)は もしくは のように表記され、確率 の1値または2値ベルヌーイ過程の情報エントロピーとして定義される。数学的には、ベルヌーイ試行は0か1の排他的な2値のみをとりうる確率変数 のとき であり、 のエントロピーは(シャノン単位で)次のように与えられる。 , ここで、 は 0 とする。この式中の対数は通常、底を2とする。二進対数も参照されたい。 のとき、二値エントロピー関数は最大値をとる。これは偏りのないコイントスに対応する。 は単一の実数を引数としてとり、確率分布や確率変数を引数とするエントロピー関数 とは区別される。二値エントロピー関数を と表記する場合もある。しかし、 も と表記することがあるため、混同に注意が必要である。

thumbnail

Property Value
dbo:abstract In information theory, the binary entropy function, denoted or , is defined as the entropy of a Bernoulli process with probability of one of two values. It is a special case of , the entropy function. Mathematically, the Bernoulli trial is modelled as a random variable that can take on only two values: 0 and 1, which are mutually exclusive and exhaustive. If , then and the entropy of (in shannons) is given by , where is taken to be 0. The logarithms in this formula are usually taken (as shown in the graph) to the base 2. See binary logarithm. When , the binary entropy function attains its maximum value. This is the case of an unbiased coin flip. is distinguished from the entropy function in that the former takes a single real number as a parameter whereas the latter takes a distribution or random variable as a parameter.Sometimes the binary entropy function is also written as .However, it is different from and should not be confused with the Rényi entropy, which is denoted as . (en) 情報理論において、二値エントロピー関数(にちエントロピーかんすう、binary entropy function)は もしくは のように表記され、確率 の1値または2値ベルヌーイ過程の情報エントロピーとして定義される。数学的には、ベルヌーイ試行は0か1の排他的な2値のみをとりうる確率変数 のとき であり、 のエントロピーは(シャノン単位で)次のように与えられる。 , ここで、 は 0 とする。この式中の対数は通常、底を2とする。二進対数も参照されたい。 のとき、二値エントロピー関数は最大値をとる。これは偏りのないコイントスに対応する。 は単一の実数を引数としてとり、確率分布や確率変数を引数とするエントロピー関数 とは区別される。二値エントロピー関数を と表記する場合もある。しかし、 も と表記することがあるため、混同に注意が必要である。 (ja) Entropia binarna – w teorii informacji jest zdefiniowana jako entropia zmiennej losowej X, która przyjmuje tylko dwie wartości: 0 lub 1. Jeśli zachodzi z prawdopodobieństwem a zachodzi z prawdopodobieństwem to entropia Shannona wynosi: gdzie: jest przyjęte jako 0. Podstawą logarytmu zwykle jest 2. Zobacz logarytm binarny. W przypadku kiedy entropia binarna przyjmuje maksymalną wartość i wynosi 1 bit. Funkcja entropii binarnej w odróżnieniu od entropii Shannona przyjmuje jako argument liczbę rzeczywistą zamiast rozkładu prawdopodobieństwa (pl)
dbo:thumbnail wiki-commons:Special:FilePath/Binary_entropy_plot.svg?width=300
dbo:wikiPageExternalLink https://web.archive.org/web/20160217105359/http:/www.inference.phy.cam.ac.uk/mackay/itila/book.html
dbo:wikiPageID 5275277 (xsd:integer)
dbo:wikiPageInterLanguageLink http://zh-yue.dbpedia.org/resource/二元熵函數
dbo:wikiPageLength 4344 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1071507954 (xsd:integer)
dbo:wikiPageWikiLink dbr:Binary_logarithm dbr:David_J._C._MacKay dbr:Derivative dbr:Rényi_entropy dbr:Entropy_(information_theory) dbr:Bernoulli_process dbr:Logit dbc:Entropy_and_information dbr:Parameter dbr:Fair_coin dbr:Probability dbr:Random_variable dbr:Taylor_series dbr:Information_theory dbr:Shannon_(unit) dbr:Quantities_of_information dbr:Metric_entropy dbr:Information_entropy dbr:File:Binary_entropy_plot.svg
dbp:wikiPageUsesTemplate dbt:ISBN dbt:Reflist
dct:subject dbc:Entropy_and_information
rdfs:comment 情報理論において、二値エントロピー関数(にちエントロピーかんすう、binary entropy function)は もしくは のように表記され、確率 の1値または2値ベルヌーイ過程の情報エントロピーとして定義される。数学的には、ベルヌーイ試行は0か1の排他的な2値のみをとりうる確率変数 のとき であり、 のエントロピーは(シャノン単位で)次のように与えられる。 , ここで、 は 0 とする。この式中の対数は通常、底を2とする。二進対数も参照されたい。 のとき、二値エントロピー関数は最大値をとる。これは偏りのないコイントスに対応する。 は単一の実数を引数としてとり、確率分布や確率変数を引数とするエントロピー関数 とは区別される。二値エントロピー関数を と表記する場合もある。しかし、 も と表記することがあるため、混同に注意が必要である。 (ja) Entropia binarna – w teorii informacji jest zdefiniowana jako entropia zmiennej losowej X, która przyjmuje tylko dwie wartości: 0 lub 1. Jeśli zachodzi z prawdopodobieństwem a zachodzi z prawdopodobieństwem to entropia Shannona wynosi: gdzie: jest przyjęte jako 0. Podstawą logarytmu zwykle jest 2. Zobacz logarytm binarny. W przypadku kiedy entropia binarna przyjmuje maksymalną wartość i wynosi 1 bit. Funkcja entropii binarnej w odróżnieniu od entropii Shannona przyjmuje jako argument liczbę rzeczywistą zamiast rozkładu prawdopodobieństwa (pl) In information theory, the binary entropy function, denoted or , is defined as the entropy of a Bernoulli process with probability of one of two values. It is a special case of , the entropy function. Mathematically, the Bernoulli trial is modelled as a random variable that can take on only two values: 0 and 1, which are mutually exclusive and exhaustive. If , then and the entropy of (in shannons) is given by , where is taken to be 0. The logarithms in this formula are usually taken (as shown in the graph) to the base 2. See binary logarithm. (en)
rdfs:label Binary entropy function (en) 二値エントロピー関数 (ja) Entropia binarna (pl)
owl:sameAs freebase:Binary entropy function wikidata:Binary entropy function dbpedia-ja:Binary entropy function dbpedia-pl:Binary entropy function https://global.dbpedia.org/id/4Yf9v
prov:wasDerivedFrom wikipedia-en:Binary_entropy_function?oldid=1071507954&ns=0
foaf:depiction wiki-commons:Special:FilePath/Binary_entropy_plot.svg
foaf:isPrimaryTopicOf wikipedia-en:Binary_entropy_function
is dbo:wikiPageDisambiguates of dbr:BEF
is dbo:wikiPageRedirects of dbr:Bernoulli_entropy dbr:Binary_entropy
is dbo:wikiPageWikiLink of dbr:BEF dbr:Rate–distortion_theory dbr:Bernoulli_distribution dbr:Binary_search_algorithm dbr:Binomial_coefficient dbr:Index_of_physics_articles_(B) dbr:Generative_adversarial_network dbr:Fuzzy_extractor dbr:Logit dbr:Lottery_mathematics dbr:Fuzzy_set dbr:Alias_method dbr:Fano's_inequality dbr:Graph_entropy dbr:Binary_erasure_channel dbr:Binary_symmetric_channel dbr:Z-channel_(information_theory) dbr:Noisy-channel_coding_theorem dbr:Quantities_of_information dbr:Bernoulli_entropy dbr:Binary_entropy
is foaf:primaryTopic of wikipedia-en:Binary_entropy_function