Binary entropy function (original) (raw)
情報理論において、二値エントロピー関数(にちエントロピーかんすう、binary entropy function)は もしくは のように表記され、確率 の1値または2値ベルヌーイ過程の情報エントロピーとして定義される。数学的には、ベルヌーイ試行は0か1の排他的な2値のみをとりうる確率変数 のとき であり、 のエントロピーは(シャノン単位で)次のように与えられる。 , ここで、 は 0 とする。この式中の対数は通常、底を2とする。二進対数も参照されたい。 のとき、二値エントロピー関数は最大値をとる。これは偏りのないコイントスに対応する。 は単一の実数を引数としてとり、確率分布や確率変数を引数とするエントロピー関数 とは区別される。二値エントロピー関数を と表記する場合もある。しかし、 も と表記することがあるため、混同に注意が必要である。
Property | Value |
---|---|
dbo:abstract | In information theory, the binary entropy function, denoted or , is defined as the entropy of a Bernoulli process with probability of one of two values. It is a special case of , the entropy function. Mathematically, the Bernoulli trial is modelled as a random variable that can take on only two values: 0 and 1, which are mutually exclusive and exhaustive. If , then and the entropy of (in shannons) is given by , where is taken to be 0. The logarithms in this formula are usually taken (as shown in the graph) to the base 2. See binary logarithm. When , the binary entropy function attains its maximum value. This is the case of an unbiased coin flip. is distinguished from the entropy function in that the former takes a single real number as a parameter whereas the latter takes a distribution or random variable as a parameter.Sometimes the binary entropy function is also written as .However, it is different from and should not be confused with the Rényi entropy, which is denoted as . (en) 情報理論において、二値エントロピー関数(にちエントロピーかんすう、binary entropy function)は もしくは のように表記され、確率 の1値または2値ベルヌーイ過程の情報エントロピーとして定義される。数学的には、ベルヌーイ試行は0か1の排他的な2値のみをとりうる確率変数 のとき であり、 のエントロピーは(シャノン単位で)次のように与えられる。 , ここで、 は 0 とする。この式中の対数は通常、底を2とする。二進対数も参照されたい。 のとき、二値エントロピー関数は最大値をとる。これは偏りのないコイントスに対応する。 は単一の実数を引数としてとり、確率分布や確率変数を引数とするエントロピー関数 とは区別される。二値エントロピー関数を と表記する場合もある。しかし、 も と表記することがあるため、混同に注意が必要である。 (ja) Entropia binarna – w teorii informacji jest zdefiniowana jako entropia zmiennej losowej X, która przyjmuje tylko dwie wartości: 0 lub 1. Jeśli zachodzi z prawdopodobieństwem a zachodzi z prawdopodobieństwem to entropia Shannona wynosi: gdzie: jest przyjęte jako 0. Podstawą logarytmu zwykle jest 2. Zobacz logarytm binarny. W przypadku kiedy entropia binarna przyjmuje maksymalną wartość i wynosi 1 bit. Funkcja entropii binarnej w odróżnieniu od entropii Shannona przyjmuje jako argument liczbę rzeczywistą zamiast rozkładu prawdopodobieństwa (pl) |
dbo:thumbnail | wiki-commons:Special:FilePath/Binary_entropy_plot.svg?width=300 |
dbo:wikiPageExternalLink | https://web.archive.org/web/20160217105359/http:/www.inference.phy.cam.ac.uk/mackay/itila/book.html |
dbo:wikiPageID | 5275277 (xsd:integer) |
dbo:wikiPageInterLanguageLink | http://zh-yue.dbpedia.org/resource/二元熵函數 |
dbo:wikiPageLength | 4344 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1071507954 (xsd:integer) |
dbo:wikiPageWikiLink | dbr:Binary_logarithm dbr:David_J._C._MacKay dbr:Derivative dbr:Rényi_entropy dbr:Entropy_(information_theory) dbr:Bernoulli_process dbr:Logit dbc:Entropy_and_information dbr:Parameter dbr:Fair_coin dbr:Probability dbr:Random_variable dbr:Taylor_series dbr:Information_theory dbr:Shannon_(unit) dbr:Quantities_of_information dbr:Metric_entropy dbr:Information_entropy dbr:File:Binary_entropy_plot.svg |
dbp:wikiPageUsesTemplate | dbt:ISBN dbt:Reflist |
dct:subject | dbc:Entropy_and_information |
rdfs:comment | 情報理論において、二値エントロピー関数(にちエントロピーかんすう、binary entropy function)は もしくは のように表記され、確率 の1値または2値ベルヌーイ過程の情報エントロピーとして定義される。数学的には、ベルヌーイ試行は0か1の排他的な2値のみをとりうる確率変数 のとき であり、 のエントロピーは(シャノン単位で)次のように与えられる。 , ここで、 は 0 とする。この式中の対数は通常、底を2とする。二進対数も参照されたい。 のとき、二値エントロピー関数は最大値をとる。これは偏りのないコイントスに対応する。 は単一の実数を引数としてとり、確率分布や確率変数を引数とするエントロピー関数 とは区別される。二値エントロピー関数を と表記する場合もある。しかし、 も と表記することがあるため、混同に注意が必要である。 (ja) Entropia binarna – w teorii informacji jest zdefiniowana jako entropia zmiennej losowej X, która przyjmuje tylko dwie wartości: 0 lub 1. Jeśli zachodzi z prawdopodobieństwem a zachodzi z prawdopodobieństwem to entropia Shannona wynosi: gdzie: jest przyjęte jako 0. Podstawą logarytmu zwykle jest 2. Zobacz logarytm binarny. W przypadku kiedy entropia binarna przyjmuje maksymalną wartość i wynosi 1 bit. Funkcja entropii binarnej w odróżnieniu od entropii Shannona przyjmuje jako argument liczbę rzeczywistą zamiast rozkładu prawdopodobieństwa (pl) In information theory, the binary entropy function, denoted or , is defined as the entropy of a Bernoulli process with probability of one of two values. It is a special case of , the entropy function. Mathematically, the Bernoulli trial is modelled as a random variable that can take on only two values: 0 and 1, which are mutually exclusive and exhaustive. If , then and the entropy of (in shannons) is given by , where is taken to be 0. The logarithms in this formula are usually taken (as shown in the graph) to the base 2. See binary logarithm. (en) |
rdfs:label | Binary entropy function (en) 二値エントロピー関数 (ja) Entropia binarna (pl) |
owl:sameAs | freebase:Binary entropy function wikidata:Binary entropy function dbpedia-ja:Binary entropy function dbpedia-pl:Binary entropy function https://global.dbpedia.org/id/4Yf9v |
prov:wasDerivedFrom | wikipedia-en:Binary_entropy_function?oldid=1071507954&ns=0 |
foaf:depiction | wiki-commons:Special:FilePath/Binary_entropy_plot.svg |
foaf:isPrimaryTopicOf | wikipedia-en:Binary_entropy_function |
is dbo:wikiPageDisambiguates of | dbr:BEF |
is dbo:wikiPageRedirects of | dbr:Bernoulli_entropy dbr:Binary_entropy |
is dbo:wikiPageWikiLink of | dbr:BEF dbr:Rate–distortion_theory dbr:Bernoulli_distribution dbr:Binary_search_algorithm dbr:Binomial_coefficient dbr:Index_of_physics_articles_(B) dbr:Generative_adversarial_network dbr:Fuzzy_extractor dbr:Logit dbr:Lottery_mathematics dbr:Fuzzy_set dbr:Alias_method dbr:Fano's_inequality dbr:Graph_entropy dbr:Binary_erasure_channel dbr:Binary_symmetric_channel dbr:Z-channel_(information_theory) dbr:Noisy-channel_coding_theorem dbr:Quantities_of_information dbr:Bernoulli_entropy dbr:Binary_entropy |
is foaf:primaryTopic of | wikipedia-en:Binary_entropy_function |