Generalization error (original) (raw)
기계학습 및 통계적 학습이론의 지도학습 응용에서 일반화 오차(一般化誤差, generalization error) 또는 표본 외 오차(標本外誤差, out-of-sample)는 알고리즘이 전례가 없는 데이터에 대한 결과값을 얼마나 정확하게 예측할 수 있는지의 정도이다. 학습 알고리즘은 유한표본에서 평가되기 때문에, 학습 알고리즘 평가는 에 민감할 수 있다. 결과적으로, 현재 데이터에 관한 예측오차의 측정값은, 새로운 데이터를 예측하는 데 있어서 많은 정보를 제공하지 않을 수 있다. 일반화 오차는 학습 알고리즘의 과적합을 피함으로써 최소화될 수 있다. 기계학습 알고리즘의 성능은 학습과정을 통한 일반화 오차값의 플롯, 학습곡선으로 측정된다.
Property | Value |
---|---|
dbo:abstract | For supervised learning applications in machine learning and statistical learning theory, generalization error (also known as the out-of-sample error or the risk) is a measure of how accurately an algorithm is able to predict outcome values for previously unseen data. Because learning algorithms are evaluated on finite samples, the evaluation of a learning algorithm may be sensitive to sampling error. As a result, measurements of prediction error on the current data may not provide much information about predictive ability on new data. Generalization error can be minimized by avoiding overfitting in the learning algorithm. The performance of a machine learning algorithm is visualized by plots that show values of estimates of the generalization error through the learning process, which are called learning curves. (en) 기계학습 및 통계적 학습이론의 지도학습 응용에서 일반화 오차(一般化誤差, generalization error) 또는 표본 외 오차(標本外誤差, out-of-sample)는 알고리즘이 전례가 없는 데이터에 대한 결과값을 얼마나 정확하게 예측할 수 있는지의 정도이다. 학습 알고리즘은 유한표본에서 평가되기 때문에, 학습 알고리즘 평가는 에 민감할 수 있다. 결과적으로, 현재 데이터에 관한 예측오차의 측정값은, 새로운 데이터를 예측하는 데 있어서 많은 정보를 제공하지 않을 수 있다. 일반화 오차는 학습 알고리즘의 과적합을 피함으로써 최소화될 수 있다. 기계학습 알고리즘의 성능은 학습과정을 통한 일반화 오차값의 플롯, 학습곡선으로 측정된다. (ko) 一个机器学习模型的泛化误差(Generalization error),是一个描述学生机器在从样品数据中学习之后,离教师机器之间的的函数。使用这个名字是因为这个函数表明一个机器的推理,即从样品数据中推导出的规则能够适用于新的数据的能力。 (zh) У застосуваннях керованого навчання в машинному навчанні та теорії статистичного навчання, по́хибка узага́льнення (англ. generalization error, відома також як по́хибка за ме́жами ви́бірки, англ. out-of-sample error) — це міра того, наскільки точно алгоритм здатен передбачувати значення виходів для не бачених раніше даних. Оскільки навчальні алгоритми обчислюються на скінченних вибірках, обчислення навчальних алгоритмів може бути чутливим до . В результаті, вимірювання похибки передбачування на поточних даних може не давати достатньо інформації про передбачувальну здатність на даних нових. Похибку узагальнення може бути мінімізовано униканням перенавчання в навчальних алгоритмах. Продуктивність алгоритму машинного навчання вимірюється шляхом відкладання на графіку значень похибки узагальнення протягом процесу навчання, що називається кривими навчання. (uk) |
dbo:thumbnail | wiki-commons:Special:FilePath/RegressionOverfitting.png?width=300 |
dbo:wikiPageExternalLink | http://delta-apache-vm.cs.tau.ac.il/~nin/Courses/NC06/VarbiasBiasGeman.pdf http://papers.nips.cc/paper/530-the-effective-number-of-parameters-an-analysis-of-generalization-and-regularization-in-nonlinear-learning-systems.pdf https://link.springer.com/chapter/10.1007/978-1-4612-2856-1_25 https://www.researchgate.net/profile/Olivier_Bousquet/publication/238718428_Advanced_Lectures_on_Machine_Learning_ML_Summer_Schools_2003_Canberra_Australia_February_2-14_2003_Tubingen_Germany_August_4-16_2003_Revised_Lectures/links/02e7e52c5870850311000000.pdf%23page=176 https://www.researchgate.net/profile/Richard_Rohwer/publication/242919152_Minimum_Description_Length_Regularization_and_Multimodal_Data/links/56738a4508ae1557cf49626d.pdf http://page.mi.fu-berlin.de/rojas/pub/a_short_1995.pdf https://stuff.mit.edu/afs/athena/course/9/9.s915/OldFiles/www/classes/dealing_with_data.pdf https://books.google.com/books%3Fhl=en&lr=&id=kDfA94ZIKvgC&oi=fnd&pg=PA324&dq=%22Estimating+a-posteriori+probabilities+using+stochastic+network+models%22&ots=8oSi3JpY86&sig=TKY-FY7JDsF4rJZ0zwXmPtuyXzc https://books.google.com/books%3Fid=m12UR8QmLqoC&printsec=frontcover%23v=onepage&q=%22generalization%20error%22&f=false https://www.sciencedirect.com/science/article/pii/0893608090900045 |
dbo:wikiPageID | 2456249 (xsd:integer) |
dbo:wikiPageLength | 13798 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1073306062 (xsd:integer) |
dbo:wikiPageWikiLink | dbr:Algorithm dbr:Joint_probability_distribution dbr:Bias–variance_tradeoff dbc:Classification_algorithms dbr:Cross-validation_(statistics) dbr:Machine_learning dbr:Stability_(learning_theory) dbr:Learning_curve dbr:Sampling_error dbr:Regularization_(mathematics) dbr:L1_norm dbr:Leave-one-out_cross-validation dbr:Klaus-Robert_Müller dbr:Loss_function dbr:Statistical_learning_theory dbr:Overfitting dbr:Supervised_learning dbr:File:RegressionOverfitting.png |
dbp:wikiPageUsesTemplate | dbt:ISBN dbt:Reflist dbt:See_also dbt:Short_description dbt:Further_cleanup dbt:Differentiable_computing |
dct:subject | dbc:Classification_algorithms |
gold:hypernym | dbr:Measure |
rdf:type | owl:Thing dbo:Software yago:WikicatClassificationAlgorithms yago:Abstraction100002137 yago:Act100030358 yago:Activity100407535 yago:Algorithm105847438 yago:Event100029378 yago:Procedure101023820 yago:PsychologicalFeature100023100 yago:YagoPermanentlyLocatedEntity yago:Rule105846932 |
rdfs:comment | 기계학습 및 통계적 학습이론의 지도학습 응용에서 일반화 오차(一般化誤差, generalization error) 또는 표본 외 오차(標本外誤差, out-of-sample)는 알고리즘이 전례가 없는 데이터에 대한 결과값을 얼마나 정확하게 예측할 수 있는지의 정도이다. 학습 알고리즘은 유한표본에서 평가되기 때문에, 학습 알고리즘 평가는 에 민감할 수 있다. 결과적으로, 현재 데이터에 관한 예측오차의 측정값은, 새로운 데이터를 예측하는 데 있어서 많은 정보를 제공하지 않을 수 있다. 일반화 오차는 학습 알고리즘의 과적합을 피함으로써 최소화될 수 있다. 기계학습 알고리즘의 성능은 학습과정을 통한 일반화 오차값의 플롯, 학습곡선으로 측정된다. (ko) 一个机器学习模型的泛化误差(Generalization error),是一个描述学生机器在从样品数据中学习之后,离教师机器之间的的函数。使用这个名字是因为这个函数表明一个机器的推理,即从样品数据中推导出的规则能够适用于新的数据的能力。 (zh) For supervised learning applications in machine learning and statistical learning theory, generalization error (also known as the out-of-sample error or the risk) is a measure of how accurately an algorithm is able to predict outcome values for previously unseen data. Because learning algorithms are evaluated on finite samples, the evaluation of a learning algorithm may be sensitive to sampling error. As a result, measurements of prediction error on the current data may not provide much information about predictive ability on new data. Generalization error can be minimized by avoiding overfitting in the learning algorithm. The performance of a machine learning algorithm is visualized by plots that show values of estimates of the generalization error through the learning process, which are (en) У застосуваннях керованого навчання в машинному навчанні та теорії статистичного навчання, по́хибка узага́льнення (англ. generalization error, відома також як по́хибка за ме́жами ви́бірки, англ. out-of-sample error) — це міра того, наскільки точно алгоритм здатен передбачувати значення виходів для не бачених раніше даних. Оскільки навчальні алгоритми обчислюються на скінченних вибірках, обчислення навчальних алгоритмів може бути чутливим до . В результаті, вимірювання похибки передбачування на поточних даних може не давати достатньо інформації про передбачувальну здатність на даних нових. Похибку узагальнення може бути мінімізовано униканням перенавчання в навчальних алгоритмах. Продуктивність алгоритму машинного навчання вимірюється шляхом відкладання на графіку значень похибки узагальнен (uk) |
rdfs:label | Generalization error (en) 일반화 오차 (ko) Похибка узагальнення (uk) 泛化误差 (zh) |
rdfs:seeAlso | dbr:Statistical_learning_theory dbr:Overfitting |
owl:sameAs | freebase:Generalization error yago-res:Generalization error wikidata:Generalization error dbpedia-ko:Generalization error dbpedia-uk:Generalization error dbpedia-zh:Generalization error https://global.dbpedia.org/id/4jvLk |
prov:wasDerivedFrom | wikipedia-en:Generalization_error?oldid=1073306062&ns=0 |
foaf:depiction | wiki-commons:Special:FilePath/RegressionOverfitting.png |
foaf:isPrimaryTopicOf | wikipedia-en:Generalization_error |
is dbo:wikiPageRedirects of | dbr:Generalisation_error |
is dbo:wikiPageWikiLink of | dbr:Probably_approximately_correct_learning dbr:Bias–variance_tradeoff dbr:Regularized_least_squares dbr:Early_stopping dbr:Sparse_distributed_memory dbr:Zero-shot_learning dbr:Covering_number dbr:Multi-task_learning dbr:Cross-validation_(statistics) dbr:Active_learning_(machine_learning) dbr:Random_forest dbr:Margin_classifier dbr:Leave-one-out_error dbr:Support_vector_machine dbr:BrownBoost dbr:Categorical_imperative dbr:Outline_of_machine_learning dbr:Overfitting dbr:Supervised_learning dbr:Generalisation_error |
is foaf:primaryTopic of | wikipedia-en:Generalization_error |