dbo:abstract |
In information theory, Fano's inequality (also known as the Fano converse and the Fano lemma) relates the average information lost in a noisy channel to the probability of the categorization error. It was derived by Robert Fano in the early 1950s while teaching a Ph.D. seminar in information theory at MIT, and later recorded in his 1961 textbook. It is used to find a lower bound on the error probability of any decoder as well as the lower bounds for in density estimation. Let the random variables and represent input and output messages with a joint probability . Let represent an occurrence of error; i.e., that , with being an approximate version of . Fano's inequality is where denotes the support of , is the conditional entropy, is the probability of the communication error, and is the corresponding binary entropy. (en) L'inégalité de Fano est un résultat de théorie de l'information. (fr) Nella teoria dell'informazione, la Disuguaglianza di Fano mette in relazione l'equivocazione di un canale rumoroso con la probabilità d'errore nella decodifica di un simbolo ricevuto. È stata scoperta e dimostrata dallo scienziato Robert Fano. (it) 情報理論において、ファノの不等式(ファノのふとうしき、英語: Fano's inequality)は、雑音の多い通信路で失われた情報の平均を分類誤りの確率と関連付ける不等式である。1950年代初めにロベルト・ファノによってMITでの情報理論のPh.Dセミナーで導かれ、その後の彼の1961年の教科書にも記載されている。ファノの逆定理(Fano converse)またはファノの補題(Fano lemma)とも呼ばれる。 これは、任意の復号器の誤り確率の下限と、におけるミニマックスリスクの下限を見つけるために使用される。 確率変数 X と Y を、同時分布 による入力・出力メッセージとする。e を誤りの発生、すなわち、 を出力メッセージ Y から推定した入力メッセージ X としたとき、 となることであるとする。すると、ファノの不等式は以下のように表される。 ここで、 は X のsupportを表し、 は、 は通信誤りの確率、 対応する二値エントロピーである。 (ja) 法諾不等式(Fano's inequality)也稱為法諾引理(Fano lemma)是信息论中的一個定理,說明噪音信道中的平均信息损失和错误分类概率之間的關係。法諾不等式是羅伯特·法諾是1950年代於麻省理工学院教授博士讨论班的时候推導的,後來放在1961年編寫的教科書中。 法諾不等式在信息论中,提供了解码器错误概率的下界。在统计学中,提供了时的下界。 用符号 表示熵, 表示随机变量X与Y之间的条件熵,表示对于X的分类,e表示分类错误的事件(),法诺不等式是说 这里 是X可能取值(有限个)的集合。 (zh) |
dbo:wikiPageExternalLink |
https://archive.org/details/TransmissionOfInformationAStatisticalTheoryOfCommunicationRobertFano%7C https://archive.org/details/elementsofinform0000cove/page/38 http://www.scholarpedia.org/article/Fano_inequality |
dbo:wikiPageID |
3607704 (xsd:integer) |
dbo:wikiPageLength |
6458 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID |
1042684264 (xsd:integer) |
dbo:wikiPageWikiLink |
dbr:Scholarpedia dbr:Robert_Fano dbr:Conditional_entropy dbr:MIT dbr:Density_estimation dbr:Data_processing_inequality dbc:Information_theory dbr:Expected_value dbr:Probability_density_function dbr:Probability dbr:Random_variable dbc:Inequalities dbr:Binary_entropy_function dbr:Ph.D. dbr:Information_theory dbr:Kullback–Leibler_divergence dbr:Random_variables dbr:Sample_(statistics) dbr:Joint_probability dbr:Minimax_risk |
dbp:wikiPageUsesTemplate |
dbt:Cite_book dbt:ISBN |
dcterms:subject |
dbc:Information_theory dbc:Inequalities |
rdf:type |
yago:Abstraction100002137 yago:Attribute100024264 yago:Difference104748836 yago:Inequality104752221 yago:Quality104723816 yago:WikicatInequalities |
rdfs:comment |
L'inégalité de Fano est un résultat de théorie de l'information. (fr) Nella teoria dell'informazione, la Disuguaglianza di Fano mette in relazione l'equivocazione di un canale rumoroso con la probabilità d'errore nella decodifica di un simbolo ricevuto. È stata scoperta e dimostrata dallo scienziato Robert Fano. (it) 情報理論において、ファノの不等式(ファノのふとうしき、英語: Fano's inequality)は、雑音の多い通信路で失われた情報の平均を分類誤りの確率と関連付ける不等式である。1950年代初めにロベルト・ファノによってMITでの情報理論のPh.Dセミナーで導かれ、その後の彼の1961年の教科書にも記載されている。ファノの逆定理(Fano converse)またはファノの補題(Fano lemma)とも呼ばれる。 これは、任意の復号器の誤り確率の下限と、におけるミニマックスリスクの下限を見つけるために使用される。 確率変数 X と Y を、同時分布 による入力・出力メッセージとする。e を誤りの発生、すなわち、 を出力メッセージ Y から推定した入力メッセージ X としたとき、 となることであるとする。すると、ファノの不等式は以下のように表される。 ここで、 は X のsupportを表し、 は、 は通信誤りの確率、 対応する二値エントロピーである。 (ja) 法諾不等式(Fano's inequality)也稱為法諾引理(Fano lemma)是信息论中的一個定理,說明噪音信道中的平均信息损失和错误分类概率之間的關係。法諾不等式是羅伯特·法諾是1950年代於麻省理工学院教授博士讨论班的时候推導的,後來放在1961年編寫的教科書中。 法諾不等式在信息论中,提供了解码器错误概率的下界。在统计学中,提供了时的下界。 用符号 表示熵, 表示随机变量X与Y之间的条件熵,表示对于X的分类,e表示分类错误的事件(),法诺不等式是说 这里 是X可能取值(有限个)的集合。 (zh) In information theory, Fano's inequality (also known as the Fano converse and the Fano lemma) relates the average information lost in a noisy channel to the probability of the categorization error. It was derived by Robert Fano in the early 1950s while teaching a Ph.D. seminar in information theory at MIT, and later recorded in his 1961 textbook. It is used to find a lower bound on the error probability of any decoder as well as the lower bounds for in density estimation. where denotes the support of , is the conditional entropy, is the probability of the communication error, and (en) |
rdfs:label |
Fano's inequality (en) Inégalité de Fano (fr) Disuguaglianza di Fano (it) ファノの不等式 (ja) 法諾不等式 (zh) |
owl:sameAs |
freebase:Fano's inequality yago-res:Fano's inequality wikidata:Fano's inequality dbpedia-fr:Fano's inequality dbpedia-it:Fano's inequality dbpedia-ja:Fano's inequality dbpedia-vi:Fano's inequality dbpedia-zh:Fano's inequality https://global.dbpedia.org/id/c36p |
prov:wasDerivedFrom |
wikipedia-en:Fano's_inequality?oldid=1042684264&ns=0 |
foaf:isPrimaryTopicOf |
wikipedia-en:Fano's_inequality |
is dbo:knownFor of |
dbr:Robert_Fano |
is dbo:wikiPageRedirects of |
dbr:Fano's_Inequality dbr:Fano's_lemma dbr:Fano_bound dbr:Fano_inequality |
is dbo:wikiPageWikiLink of |
dbr:Robert_Fano dbr:Inequalities_in_information_theory dbr:List_of_inequalities dbr:Additive_white_Gaussian_noise dbr:Fano's_Inequality dbr:Gibbs'_inequality dbr:Noisy-channel_coding_theorem dbr:Fano's_lemma dbr:Fano_bound dbr:Fano_inequality |
is dbp:knownFor of |
dbr:Robert_Fano |
is foaf:primaryTopic of |
wikipedia-en:Fano's_inequality |