Bias–variance tradeoff (original) (raw)

About DBpedia

Das Verzerrung-Varianz-Dilemma (häufig auch englisch bias-variance tradeoff) beschreibt das Problem der gleichzeitigen Minimierung zweier Fehlerquellen: der Verzerrung und der Varianz. Das Dilemma erschwert das Verallgemeinern von Trainingsdaten auf die Testdaten bei überwachtem Lernen. Das Verzerrung-Varianz-Dilemma gilt für alle Formen des überwachten Lernens: Klassifikation, Regression, und . Das Dilemma betrifft die Bereiche Statistik und des maschinellen Lernens. Es wurde auch genutzt, um die Wirksamkeit von Heuristiken beim menschlichen Lernen zu erklären.

thumbnail

Property Value
dbo:abstract In statistics and machine learning, the bias–variance tradeoff is the property of a model that the variance of the parameter estimated across samples can be reduced by increasing the bias in the estimated parameters.The bias–variance dilemma or bias–variance problem is the conflict in trying to simultaneously minimize these two sources of error that prevent supervised learning algorithms from generalizing beyond their training set: * The bias error is an error from erroneous assumptions in the learning algorithm. High bias can cause an algorithm to miss the relevant relations between features and target outputs (underfitting). * The variance is an error from sensitivity to small fluctuations in the training set. High variance may result from an algorithm modeling the random noise in the training data (overfitting). The bias–variance decomposition is a way of analyzing a learning algorithm's expected generalization error with respect to a particular problem as a sum of three terms, the bias, variance, and a quantity called the irreducible error, resulting from noise in the problem itself. (en) Das Verzerrung-Varianz-Dilemma (häufig auch englisch bias-variance tradeoff) beschreibt das Problem der gleichzeitigen Minimierung zweier Fehlerquellen: der Verzerrung und der Varianz. Das Dilemma erschwert das Verallgemeinern von Trainingsdaten auf die Testdaten bei überwachtem Lernen. * Die Verzerrung ist der Fehler ausgehend von falschen Annahmen im Lernalgorithmus. Eine hohe Verzerrung kann einen Algorithmus dazu veranlassen, nicht die entsprechenden Beziehungen zwischen Eingabe und Ausgabe zu modellieren (Unteranpassung). * Die Varianz ist der Fehler ausgehend von der Empfindlichkeit auf kleinere Schwankungen in den Trainingsdaten. Eine hohe Varianz verursacht Überanpassung: es wird das Rauschen in den Trainingsdaten statt der vorgesehenen Ausgabe modelliert. Die Verzerrung-Varianz-Zerlegung bietet die Möglichkeit, den erwarteten Fehler eines Lernalgorithmus im Hinblick auf ein bestimmtes Problem zu analysieren, und kann als Summe aus drei Termen dargestellt werden: Der Verzerrung, der Varianz und einem irreduziblen Fehler (siehe auch ), resultierend aus dem Rauschen innerhalb des Problems selbst. Das Verzerrung-Varianz-Dilemma gilt für alle Formen des überwachten Lernens: Klassifikation, Regression, und . Das Dilemma betrifft die Bereiche Statistik und des maschinellen Lernens. Es wurde auch genutzt, um die Wirksamkeit von Heuristiken beim menschlichen Lernen zu erklären. (de) En statistique et en apprentissage automatique, le dilemme (ou compromis) biais–variance est le problème de minimiser simultanément deux sources d'erreurs qui empêchent les algorithmes d'apprentissage supervisé de généraliser au-delà de leur échantillon d'apprentissage : * Le biais est l'erreur provenant d’hypothèses erronées dans l'algorithme d'apprentissage. Un biais élevé peut être lié à un algorithme qui manque de relations pertinentes entre les données en entrée et les sorties prévues (sous-apprentissage). * La variance est l'erreur due à la sensibilité aux petites fluctuations de l’échantillon d'apprentissage. Une variance élevée peut entraîner un surapprentissage, c'est-à-dire modéliser le bruit aléatoire des données d'apprentissage plutôt que les sorties prévues. La décomposition biais-variance est une façon d'analyser l'espérance de l'erreur de prédiction d'un algorithme d'apprentissage d'un problème particulier comme une somme de trois termes : le biais, la variance et une quantité, appelée erreur irréductible, résultant du bruit dans le problème lui-même. Ce compromis s'applique à toutes les formes d'apprentissage supervisé : classification, régression (fonction de montage), et le (en). Il a également été invoqué pour expliquer l'efficacité des heuristiques dans l'apprentissage humain. (fr) 통계학과 기계 학습 분야에서 말하는 편향-분산 트레이드오프(Bias-variance tradeoff) (또는 딜레마(dilemma))는 지도 학습 알고리즘이 트레이닝 셋의 범위를 넘어 지나치게 일반화하는 것을 예방하기 위해 두 종류의 오차(편향, 분산)를 최소화 할 때 겪는 문제이다. * 편향은 학습 알고리즘에서 잘못된 가정을 했을 때 발생하는 오차이다. 높은 편향값은 알고리즘이 데이터의 특징과 결과물과의 적절한 관계를 놓치게 만드는 과소적합(underfitting) 문제를 발생 시킨다. * 분산은 트레이닝 셋에 내재된 작은 변동(fluctuation) 때문에 발생하는 오차이다. 높은 분산값은 큰 노이즈까지 모델링에 포함시키는 과적합(overfitting) 문제를 발생 시킨다. 편향-분산 분해는 학습 알고리즘의 기대 오차를 분석하는 한 가지 방법으로, 오차를 편향, 분산, 그리고 데이터 자체가 내재하고 있어 어떤 모델링으로도 줄일수 없는 오류의 합으로 본다. 편향-분산 트레이드 오프는 분류(classification), 회귀분석, 그리고 구조화된 출력 학습 출력학습(structed output learning) 등 모든 형태의 지도 학습에 응용된다. 또한 사람의 학습에서 (heuristics)의 효과성을 설명하기 위해 언급되기도 한다. (ko) Nella statistica e nell'apprendimento automatico, il compromesso bias-varianza (in inglese bias-variance tradeoff) è la proprietà di un modello secondo cui la varianza del parametro stimato tra i campioni può essere ridotta aumentando il bias nei parametri stimati. Il dilemma o problema della bias-varianza sta nel conflitto nel tentativo di minimizzare contemporaneamente queste due fonti di errore che impediscono agli algoritmi di apprendimento supervisionato di generalizzare oltre il loro insieme di addestramento (o training set): * L'errore di bias è un errore derivante da presupposti errati nell'algoritmo di apprendimento. Un elevato bias può far sì che un algoritmo manchi le relazioni rilevanti tra le caratteristiche e gli output di destinazione (underfitting). * La varianza è un errore dovuto alla sensibilità a piccole fluttuazioni nel training set. Un'elevata varianza può derivare da un algoritmo che modella il rumore casuale nei dati di addestramento (overfitting). La scomposizione bias-varianza è un modo per analizzare l'errore di generalizzazione atteso di un algoritmo di apprendimento rispetto a un particolare problema come somma di tre termini, il bias, la varianza e una quantità chiamata errore irriducibile, risultante dal rumore nel problema stesso. (it) 偏りと分散やバイアス-バリアンスのトレードオフ(かたよりとぶんさんのトレードオフ、英: bias–variance tradeoff)とは、統計学と機械学習において、パラメータの推定においてバイアス(偏り)を減らすと標本間のバリアンス(分散)が増え、同時にその逆も成立する、という予測モデルの特徴のことである。 バイアス-バリアンスのジレンマ(bias–variance dilemma)やバイアス-バリアンスの問題(bias–variance problem)とは、誤差の原因であるバイアスとバリアンスの両方を同時に減らそうとする際の対立の事であり、教師あり学習のアルゴリズムが訓練データの内容を超えて汎化する際の課題となる。 バイアス(偏り)学習アルゴリズムにおいて、誤差のうち、モデルの仮定の誤りに由来する分。バイアスが大きすぎることは、入力と出力の関係を適切に捉えられていないことを意味し、過少適合している。バリアンス(分散)誤差のうち、訓練データの揺らぎから生じる分。バリアンスが大きすぎることは、本来の出力ではなく、訓練データのランダムなノイズを学習していることを意味し、過剰適合している。 バイアス-バリアンス分解(bias–variance decomposition)とは、汎化誤差の期待値をバイアス+バリアンス+ノイズの3つの和に分解することである。 バイアス-バリアンスのトレードオフは、全ての教師あり学習で生じる。人間の学習において、人間がヒューリスティクスを使用することの有効性の説明にも使用されている。 (ja) Kompromis między obciążeniem a wariancją (in. przetarg, dylemat, ang. bias-variance tradeoff) – problem leżący u podstaw modelowania w statystyce i uczeniu maszynowym, który polega na sprzeczności między redukcją obciążenia i wariancji estymatorów statystycznych. Do wysokiego błędu modelu poza próbą treningową może prowadzić zarówno jego nadmierne uproszczenie (wysokie obciążenie), jak i nadmiernie szczegółowa wrażliwość (wysoka wariancja). Choć obciążenie jest z zasady niepożądane, niepożądana jest także wariancja estymatora. Estymator o najmniejszym obciążeniu nie musi być w praktyce najlepszym narzędziem wobec badanego problemu, co obrazuje np. paradoks Steina. Opis tego problemu oferuje matematyczną formalizację takich zjawisk jak nadmierne dopasowanie, które motywują stosowanie przeciwdziałających mu narzędzi takich jak statystyki odpornościowe, regularyzacja, metody zespołowe czy bagging. Występuje we wszystkich postaciach uczenia nadzorowanego; przywołano go także do wyjaśnienia efektywności heurystyk poznawczych stosowanych przez ludzi. Choć przykłady tego zjawiska były znane już wcześniej, jego konceptualizację jako „kompromis” wprowadzili do nauki S. Geman, E. Bienenstock i R. Doursat w 1992 r., w publikacji dotyczącej błędu uczenia sieci neuronowych. (pl) Компромисс отклонение-дисперсия в статистике и в машинном обучении — это свойство набора моделей предсказания, когда модели с меньшим отклонением от имеющихся данных имеют более высокую дисперсию на новых данных (то есть подвержены переобучению), и наоборот. Компромисс отклонение-дисперсия — конфликт при попытке одновременно минимизировать эти два источника , которые мешают алгоритмам обучения с учителем делать обобщение за пределами . * Смещение — это погрешность оценки, возникающая в результате ошибочного предположения в алгоритме обучения. В результате большого смещения алгоритм может пропустить связь между признаками и выводом (недообучение). * Дисперсия — это ошибка чувствительности к малым отклонениям в тренировочном наборе. При высокой дисперсии алгоритм может как-то трактовать случайный в тренировочном наборе, а не желаемый результат (переобучение). Разложение смещения-дисперсии — это способ анализа ожидаемой алгоритма обучения для частной задачи сведением к сумме трёх членов — смещения, дисперсии и величины, называемой неустранимой погрешностью, которая является результатом шума в самой задаче. Дилемма возникает во всех формах обучения с учителем — в классификации, регрессии (аппроксимация функции) и структурное прогнозирование. Дилемма также используется для объяснения эффективности эвристики при обучении людей. (ru) У статистиці та машинному навчанні, компромі́с (або диле́ма) зсу́ву та диспе́рсії (англ. bias–variance tradeoff or dilemma) — це задача одночасної мінімізації двох джерел похибки, які перешкоджають алгоритмам керованого навчання робити узагальнення на основі їхніх тренувальних наборів: * Зсув (англ. bias) — це похибка, викликана помилковими припущеннями в алгоритмі навчання. Великий зсув може спричиняти нездатність алгоритму знаходити доречні взаємозв'язки між ознаками та цільовими виходами (недонавчання). * Дисперсія (англ. variance) — це похибка від чутливості до малих флуктуацій в тренувальному наборі. Висока дисперсія може спричиняти перенавчання: моделювання випадкового в тренувальних даних замість моделювання бажаних виходів. Ро́зклад на зсув та диспе́рсію (англ. bias–variance decomposition) — це спосіб аналізувати очікувану похибку узагальнення алгоритму навчання по відношенню до тієї чи іншої задачі як суму трьох членів: зсуву, дисперсії, та величини, що називається незнижуваною похибкою (англ. irreducible error), яка виникає внаслідок шуму в самій задачі. Цей компроміс застосовується до всіх видів керованого навчання: класифікації, регресії (узгодження функцій) та навчання структурованого виходу. Його також залучали для пояснення дієвості евристик у людському навчанні. (uk)
dbo:thumbnail wiki-commons:Special:FilePath/Test_function_and_noisy_data.png?width=300
dbo:wikiPageExternalLink https://mlu-explain.github.io/bias-variance/
dbo:wikiPageID 40678189 (xsd:integer)
dbo:wikiPageLength 25884 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1121715949 (xsd:integer)
dbo:wikiPageWikiLink dbr:Probabilistic_classification dbr:Ensemble_learning dbr:Algorithm dbr:Bias_of_an_estimator dbc:Dilemmas dbr:Ridge_regression dbr:Variance dbr:Decision_tree dbr:Deterministic_algorithm dbr:Double_descent dbr:Instance-based_learning dbr:0-1_loss dbr:Estimation_theory dbr:Gauss–Markov_theorem dbr:Generalization dbr:Generalization_error dbr:Generalized_linear_model dbr:Cognitive_science dbr:Gerd_Gigerenzer dbr:Mixture_models dbr:Model_selection dbr:Cross-validation_(statistics) dbr:Regression_model_validation dbr:Machine_learning dbr:Statistics dbr:Stuart_Geman dbr:Closed-form_expression dbr:Feature_selection dbr:Statistical_parameter dbc:Machine_learning dbr:Training_set dbr:Errors_and_residuals_in_statistics dbr:Lasso_(statistics) dbr:Law_of_total_variance dbr:Linear_model dbr:Minimum-variance_unbiased_estimator dbc:Model_selection dbr:Expected_value dbr:Noise_(signal_processing) dbr:Dimensionality_reduction dbr:Object_recognition dbr:Prototype dbr:Regularization_(mathematics) dbr:Reinforcement_learning dbr:Hyperparameter_optimization dbr:Sample_space dbr:Artificial_neural_network dbr:Accuracy_and_precision dbr:Affirming_the_consequent dbr:K-nearest_neighbor dbr:K-nearest_neighbors_algorithm dbc:Statistical_classification dbr:Boosting_(machine_learning) dbr:Bootstrap_aggregating dbr:Bootstrapping_(statistics) dbr:Ordinary_least_squares dbr:Mean_squared_error dbr:Sample_(statistics) dbr:Shrinkage_(statistics) dbr:Smoothing dbr:Statistical_classification dbr:Training,_validation,_and_test_data_sets dbr:Overfitting dbr:Supervised_learning dbr:Radial_basis_functions dbr:Model_validation dbr:File:Bias_and_variance_contributing_to_total_error.svg
dbp:align right (en)
dbp:caption Function and noisy data (en) Spread=0.1 (en) Spread=1 (en) Spread=5 (en)
dbp:date May 2021 (en)
dbp:direction vertical (en)
dbp:footer A function is approximated using radial basis functions . Several trials are shown in each graph. For each trial, a few noisy data points are provided as a training set . For a wide spread the bias is high: the RBFs cannot fully approximate the function , but the variance between different trials is low. As spread decreases the bias decreases: the blue curves more closely approximate the red. However, depending on the noise in different trials the variance between trials increases. In the lowermost image the approximated values for x=0 varies wildly depending on where the data points were located. (en)
dbp:image Radial basis function fit, spread=0.1.png (en) Radial basis function fit, spread=1.png (en) Radial basis function fit, spread=5.png (en) Test function and noisy data.png (en)
dbp:reason Why is this true? And what does it mean for a "high-variance model" to be "complex", i.e. in which sense? (en)
dbp:width 200 (xsd:integer)
dbp:wikiPageUsesTemplate dbt:Clarify dbt:Div_col dbt:Div_col_end dbt:Main dbt:Multiple_image dbt:Mvar dbt:Reflist dbt:Rp dbt:Short_description dbt:Machine_learning
dcterms:subject dbc:Dilemmas dbc:Machine_learning dbc:Model_selection dbc:Statistical_classification
gold:hypernym dbr:Problem
rdf:type yago:Abstraction100002137 yago:Attribute100024264 yago:CognitiveState105669934 yago:Condition113920835 yago:Confusion105683582 yago:Dilemma105686086 yago:Perplexity105685363 yago:PsychologicalState114373582 dbo:Disease yago:State100024720 yago:WikicatDilemmas
rdfs:comment Das Verzerrung-Varianz-Dilemma (häufig auch englisch bias-variance tradeoff) beschreibt das Problem der gleichzeitigen Minimierung zweier Fehlerquellen: der Verzerrung und der Varianz. Das Dilemma erschwert das Verallgemeinern von Trainingsdaten auf die Testdaten bei überwachtem Lernen. Das Verzerrung-Varianz-Dilemma gilt für alle Formen des überwachten Lernens: Klassifikation, Regression, und . Das Dilemma betrifft die Bereiche Statistik und des maschinellen Lernens. Es wurde auch genutzt, um die Wirksamkeit von Heuristiken beim menschlichen Lernen zu erklären. (de) In statistics and machine learning, the bias–variance tradeoff is the property of a model that the variance of the parameter estimated across samples can be reduced by increasing the bias in the estimated parameters.The bias–variance dilemma or bias–variance problem is the conflict in trying to simultaneously minimize these two sources of error that prevent supervised learning algorithms from generalizing beyond their training set: (en) En statistique et en apprentissage automatique, le dilemme (ou compromis) biais–variance est le problème de minimiser simultanément deux sources d'erreurs qui empêchent les algorithmes d'apprentissage supervisé de généraliser au-delà de leur échantillon d'apprentissage : La décomposition biais-variance est une façon d'analyser l'espérance de l'erreur de prédiction d'un algorithme d'apprentissage d'un problème particulier comme une somme de trois termes : le biais, la variance et une quantité, appelée erreur irréductible, résultant du bruit dans le problème lui-même. (fr) 偏りと分散やバイアス-バリアンスのトレードオフ(かたよりとぶんさんのトレードオフ、英: bias–variance tradeoff)とは、統計学と機械学習において、パラメータの推定においてバイアス(偏り)を減らすと標本間のバリアンス(分散)が増え、同時にその逆も成立する、という予測モデルの特徴のことである。 バイアス-バリアンスのジレンマ(bias–variance dilemma)やバイアス-バリアンスの問題(bias–variance problem)とは、誤差の原因であるバイアスとバリアンスの両方を同時に減らそうとする際の対立の事であり、教師あり学習のアルゴリズムが訓練データの内容を超えて汎化する際の課題となる。 バイアス(偏り)学習アルゴリズムにおいて、誤差のうち、モデルの仮定の誤りに由来する分。バイアスが大きすぎることは、入力と出力の関係を適切に捉えられていないことを意味し、過少適合している。バリアンス(分散)誤差のうち、訓練データの揺らぎから生じる分。バリアンスが大きすぎることは、本来の出力ではなく、訓練データのランダムなノイズを学習していることを意味し、過剰適合している。 バイアス-バリアンス分解(bias–variance decomposition)とは、汎化誤差の期待値をバイアス+バリアンス+ノイズの3つの和に分解することである。 (ja) Nella statistica e nell'apprendimento automatico, il compromesso bias-varianza (in inglese bias-variance tradeoff) è la proprietà di un modello secondo cui la varianza del parametro stimato tra i campioni può essere ridotta aumentando il bias nei parametri stimati. Il dilemma o problema della bias-varianza sta nel conflitto nel tentativo di minimizzare contemporaneamente queste due fonti di errore che impediscono agli algoritmi di apprendimento supervisionato di generalizzare oltre il loro insieme di addestramento (o training set): (it) 통계학과 기계 학습 분야에서 말하는 편향-분산 트레이드오프(Bias-variance tradeoff) (또는 딜레마(dilemma))는 지도 학습 알고리즘이 트레이닝 셋의 범위를 넘어 지나치게 일반화하는 것을 예방하기 위해 두 종류의 오차(편향, 분산)를 최소화 할 때 겪는 문제이다. * 편향은 학습 알고리즘에서 잘못된 가정을 했을 때 발생하는 오차이다. 높은 편향값은 알고리즘이 데이터의 특징과 결과물과의 적절한 관계를 놓치게 만드는 과소적합(underfitting) 문제를 발생 시킨다. * 분산은 트레이닝 셋에 내재된 작은 변동(fluctuation) 때문에 발생하는 오차이다. 높은 분산값은 큰 노이즈까지 모델링에 포함시키는 과적합(overfitting) 문제를 발생 시킨다. (ko) Kompromis między obciążeniem a wariancją (in. przetarg, dylemat, ang. bias-variance tradeoff) – problem leżący u podstaw modelowania w statystyce i uczeniu maszynowym, który polega na sprzeczności między redukcją obciążenia i wariancji estymatorów statystycznych. Do wysokiego błędu modelu poza próbą treningową może prowadzić zarówno jego nadmierne uproszczenie (wysokie obciążenie), jak i nadmiernie szczegółowa wrażliwość (wysoka wariancja). Choć obciążenie jest z zasady niepożądane, niepożądana jest także wariancja estymatora. Estymator o najmniejszym obciążeniu nie musi być w praktyce najlepszym narzędziem wobec badanego problemu, co obrazuje np. paradoks Steina. (pl) Компромисс отклонение-дисперсия в статистике и в машинном обучении — это свойство набора моделей предсказания, когда модели с меньшим отклонением от имеющихся данных имеют более высокую дисперсию на новых данных (то есть подвержены переобучению), и наоборот. Компромисс отклонение-дисперсия — конфликт при попытке одновременно минимизировать эти два источника , которые мешают алгоритмам обучения с учителем делать обобщение за пределами . (ru) У статистиці та машинному навчанні, компромі́с (або диле́ма) зсу́ву та диспе́рсії (англ. bias–variance tradeoff or dilemma) — це задача одночасної мінімізації двох джерел похибки, які перешкоджають алгоритмам керованого навчання робити узагальнення на основі їхніх тренувальних наборів: Цей компроміс застосовується до всіх видів керованого навчання: класифікації, регресії (узгодження функцій) та навчання структурованого виходу. Його також залучали для пояснення дієвості евристик у людському навчанні. (uk)
rdfs:label Verzerrung-Varianz-Dilemma (de) Bias–variance tradeoff (en) Dilemme biais-variance (fr) Compromesso bias-varianza (it) 偏りと分散 (ja) 편향-분산 트레이드오프 (ko) Kompromis między obciążeniem a wariancją (pl) Дилемма смещения–дисперсии (ru) Компроміс зсуву та дисперсії (uk)
owl:sameAs freebase:Bias–variance tradeoff wikidata:Bias–variance tradeoff dbpedia-de:Bias–variance tradeoff dbpedia-fr:Bias–variance tradeoff dbpedia-it:Bias–variance tradeoff dbpedia-ja:Bias–variance tradeoff dbpedia-ko:Bias–variance tradeoff dbpedia-pl:Bias–variance tradeoff dbpedia-ru:Bias–variance tradeoff dbpedia-uk:Bias–variance tradeoff https://global.dbpedia.org/id/fL9Y
prov:wasDerivedFrom wikipedia-en:Bias–variance_tradeoff?oldid=1121715949&ns=0
foaf:depiction wiki-commons:Special:FilePath/1.png wiki-commons:Special:FilePath/0.1.png wiki-commons:Special:FilePath/5.png wiki-commons:Special:FilePath/Bias_and_variance_contributing_to_total_error.svg wiki-commons:Special:FilePath/En_low_bias_low_variance.png wiki-commons:Special:FilePath/Test_function_and_noisy_data.png wiki-commons:Special:FilePath/Truen_bad_prec_bad.png wiki-commons:Special:FilePath/Truen_bad_prec_ok.png wiki-commons:Special:FilePath/Truen_ok_prec_bad.png
foaf:isPrimaryTopicOf wikipedia-en:Bias–variance_tradeoff
is dbo:wikiPageRedirects of dbr:Bias-variance_dilemma dbr:Bias–variance_dilemma dbr:Bias--variance_tradeoff dbr:Bias-variance_decomposition dbr:Bias-variance_tradeoff dbr:Bias_and_variance_tradeoff dbr:Bias_variance dbr:Bias–variance_decomposition
is dbo:wikiPageWikiLink of dbr:Probabilistic_classification dbr:Bias_of_an_estimator dbr:Ridge_regression dbr:Double_descent dbr:Generalization_error dbr:Gerd_Gigerenzer dbr:Glossary_of_artificial_intelligence dbr:Bias-variance_dilemma dbr:Bias–variance_dilemma dbr:Less-is-more_effect dbr:Learning_curve_(machine_learning) dbr:Minimum-variance_unbiased_estimator dbr:Exponential_distribution dbr:Random_forest dbr:Regularization_(mathematics) dbr:Mean_squared_error dbr:Occam's_razor dbr:Trade-off dbr:Outline_of_machine_learning dbr:Overfitting dbr:Bias--variance_tradeoff dbr:Bias-variance_decomposition dbr:Bias-variance_tradeoff dbr:Bias_and_variance_tradeoff dbr:Bias_variance dbr:Bias–variance_decomposition
is foaf:primaryTopic of wikipedia-en:Bias–variance_tradeoff