dbo:abstract |
في نظرية المعلومات والتعلم الآلي، يعبر اكتساب المعلومات عن مقدار المعلومات المكتسبة حول متغير عشوائي أو إشارة معينة من وجهة نظر متغير عشوائي آخر. ويستخدم اكتساب المعلومات مع أشجار القرار في بعض الأحيان بشكل مترادف مع المعلومات المتبادلة. (ar) In information theory and machine learning, information gain is a synonym for Kullback–Leibler divergence; the amount of information gained about a random variable or signal from observing another random variable. However, in the context of decision trees, the term is sometimes used synonymously with mutual information, which is the conditional expected value of the Kullback–Leibler divergence of the univariate probability distribution of one variable from the conditional distribution of this variable given the other one. The information gain of a random variable X obtained from an observation of a random variable A taking value is defined the Kullback–Leibler divergence of the prior distribution for x from the posterior distribution for x given a. The expected value of the information gain is the mutual information of X and A – i.e. the reduction in the entropy of X achieved by learning the state of the random variable A. In machine learning, this concept can be used to define a preferred sequence of attributes to investigate to most rapidly narrow down the state of X. Such a sequence (which depends on the outcome of the investigation of previous attributes at each stage) is called a decision tree and applied in the area of machine learning known as decision tree learning. Usually an attribute with high mutual information should be preferred to other attributes. (en) 정보 이론과 머신 러닝에서 정보 이득은 쿨백-라이블러 발산(Kullback Leibler Divergence,KLD)의 동의어이다. 그러나 의사 결정 나무의 맥락에서 이 용어는 때때로 상호 정보와 동의어로 사용되기도 하는데, 이것은 상호의존정보와 동의어로 사용되기도 한다. 이 정보는 한 변수의 조건부 분포에서 다른 한 변수의 단일 변수 확률 분포에 대한 쿨백-라이블러 발산의 기댓값이다. 특히, 확률 변수 A가 값 A = a를 취하는 관찰로부터 얻어진 확률 변수 X의 정보 이득은 쿨백-라이블러 발산 으로 a가 주어진 x에 대한 로부터의 x에 대한 사전 확률 로 표현된다. 정보 이득의 기댓값은 X와 A의 상호의존정보 I(X; A)이다. 즉 무작위 변수 A의 상태를 관찰함으로써 얻어지는 X의 엔트로피 감소이다. 머신 러닝에서 이 개념은 X의 상태를 가장 빠르게 좁히기 위해 조사할 속성의 기본 시퀀스를 정의하는 데 사용할 수 있다. 이러한 시퀀스 (각 단계에서 이전 속성 조사의 결과에 따라 다름)를 의사 결정 트리 라고한다. 일반적으로 상호 정보가 높은 속성은 다른 속성보다 선호되어야 한다. (ko) |
dbo:thumbnail |
wiki-commons:Special:FilePath/Entropy-illustration.png?width=300 |
dbo:wikiPageExternalLink |
https://crpit.scem.westernsydney.edu.au/confpapers/CRPITV121Shouman.pdf%7Cjournal=Proceedings https://www.cs.cmu.edu/~tom/mlbook.html%7Cisbn=978-0070428072 |
dbo:wikiPageID |
2507412 (xsd:integer) |
dbo:wikiPageLength |
21043 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID |
1111084103 (xsd:integer) |
dbo:wikiPageWikiLink |
dbr:Probability_distribution dbr:Mutation dbr:Relevance dbr:Decision_tree dbr:Decision_tree_learning dbr:Information_content dbr:Ross_Quinlan dbc:Classification_algorithms dbr:Conditional_entropy dbr:Conditional_probability dbr:Analogy dbr:Optimal dbr:Entropy_(information_theory) dbr:Mutual_information dbr:Conditional_expectation dbr:Conditional_probability_distribution dbr:Continuous_or_discrete_variable dbr:Machine_learning dbr:Feature_(machine_learning) dbr:Training,_validation,_and_test_sets dbr:Training_set dbr:Disjoint_sets dbr:Feature_vector dbc:Decision_trees dbr:Expected_value dbr:Partition_of_a_set dbr:Random_variable dbr:Hereditary_set dbr:Surprisal_analysis dbr:C4.5_algorithm dbr:Information_gain_ratio dbr:Information_theory dbr:Kullback–Leibler_divergence dbr:Categorical_distribution dbr:Set_(mathematics) dbr:Signal dbr:Statistical_classification dbr:ID3_algorithm dbr:Overfitting dbr:Subset dbr:Shannon_entropy dbr:Prior_distribution dbr:Information_entropy dbr:Information_gain dbr:Posterior_distribution dbr:Expectation_value dbr:File:A_simple_Decision_Tree.png dbr:File:Entropy-illustration.png dbr:File:Info_Gain_Root_Split_Example.png dbr:File:Info_Gain_Splitting_the_Child_Node(s)_Example.png dbr:File:Testing_Info_Gain_Tree_Example.png |
dbp:wikiPageUsesTemplate |
dbt:Cite_arXiv dbt:Cite_book dbt:Cite_journal dbt:More_citations_needed dbt:Mvar dbt:NumBlk dbt:Reflist dbt:Tmath dbt:Why? dbt:EquationRef dbt:Times |
dct:subject |
dbc:Classification_algorithms dbc:Decision_trees |
rdfs:comment |
في نظرية المعلومات والتعلم الآلي، يعبر اكتساب المعلومات عن مقدار المعلومات المكتسبة حول متغير عشوائي أو إشارة معينة من وجهة نظر متغير عشوائي آخر. ويستخدم اكتساب المعلومات مع أشجار القرار في بعض الأحيان بشكل مترادف مع المعلومات المتبادلة. (ar) 정보 이론과 머신 러닝에서 정보 이득은 쿨백-라이블러 발산(Kullback Leibler Divergence,KLD)의 동의어이다. 그러나 의사 결정 나무의 맥락에서 이 용어는 때때로 상호 정보와 동의어로 사용되기도 하는데, 이것은 상호의존정보와 동의어로 사용되기도 한다. 이 정보는 한 변수의 조건부 분포에서 다른 한 변수의 단일 변수 확률 분포에 대한 쿨백-라이블러 발산의 기댓값이다. 특히, 확률 변수 A가 값 A = a를 취하는 관찰로부터 얻어진 확률 변수 X의 정보 이득은 쿨백-라이블러 발산 으로 a가 주어진 x에 대한 로부터의 x에 대한 사전 확률 로 표현된다. 정보 이득의 기댓값은 X와 A의 상호의존정보 I(X; A)이다. 즉 무작위 변수 A의 상태를 관찰함으로써 얻어지는 X의 엔트로피 감소이다. 머신 러닝에서 이 개념은 X의 상태를 가장 빠르게 좁히기 위해 조사할 속성의 기본 시퀀스를 정의하는 데 사용할 수 있다. 이러한 시퀀스 (각 단계에서 이전 속성 조사의 결과에 따라 다름)를 의사 결정 트리 라고한다. 일반적으로 상호 정보가 높은 속성은 다른 속성보다 선호되어야 한다. (ko) In information theory and machine learning, information gain is a synonym for Kullback–Leibler divergence; the amount of information gained about a random variable or signal from observing another random variable. However, in the context of decision trees, the term is sometimes used synonymously with mutual information, which is the conditional expected value of the Kullback–Leibler divergence of the univariate probability distribution of one variable from the conditional distribution of this variable given the other one. (en) |
rdfs:label |
اكتساب المعلومات (شجرة القرار) (ar) Information gain (decision tree) (en) 정보 이득 (ko) |
owl:sameAs |
wikidata:Information gain (decision tree) dbpedia-ar:Information gain (decision tree) dbpedia-fa:Information gain (decision tree) dbpedia-ko:Information gain (decision tree) dbpedia-simple:Information gain (decision tree) https://global.dbpedia.org/id/fSck |
prov:wasDerivedFrom |
wikipedia-en:Information_gain_(decision_tree)?oldid=1111084103&ns=0 |
foaf:depiction |
wiki-commons:Special:FilePath/A_simple_Decision_Tree.png wiki-commons:Special:FilePath/Entropy-illustration.png wiki-commons:Special:FilePath/Info_Gain_Root_Split_Example.png wiki-commons:Special:FilePath/Info_Gain_Splitting_the_Child_Node(s)_Example.png wiki-commons:Special:FilePath/Testing_Info_Gain_Tree_Example.png |
foaf:isPrimaryTopicOf |
wikipedia-en:Information_gain_(decision_tree) |
is dbo:wikiPageRedirects of |
dbr:Information_gain_in_decision_trees |
is dbo:wikiPageWikiLink of |
dbr:Information_gain_in_decision_trees |
is foaf:primaryTopic of |
wikipedia-en:Information_gain_(decision_tree) |