Feature selection (original) (raw)

About DBpedia

اختيار المميزات أو اختيار الأبعاد هي التقنية التي تستخدم بكثرة في التعلم الآلي لاختيار مجموعة جزئية من المميزات لمجموعة بيانات من أجل بناء نموذج تعليم مستقر. تساعد علمية اختيار الميزات على إعطاء فهم أوضح للناس حول البيانات عن طريق إخبارهم بالميزات الهامة للبيانات وعلاقتها مع بعضها البعض.

thumbnail

Property Value
dbo:abstract اختيار المميزات أو اختيار الأبعاد هي التقنية التي تستخدم بكثرة في التعلم الآلي لاختيار مجموعة جزئية من المميزات لمجموعة بيانات من أجل بناء نموذج تعليم مستقر. تساعد علمية اختيار الميزات على إعطاء فهم أوضح للناس حول البيانات عن طريق إخبارهم بالميزات الهامة للبيانات وعلاقتها مع بعضها البعض. (ar) Výběr rysů, též selekce rysů, výběr proměnných nebo výběr atributů, je ve strojovém učení a statistice proces výběru podmnožiny relevantních rysů (též slangově fíčur), které se použijí pro konstrukci modelu. Klíčový předpoklad pro užití této metody je, že data obsahují mnoho redundantních nebo nerelevantních atributů. Redundantní jsou takové, které nenesou víc informace než aktuálně vybrané atributy. Nerelevantní atributy neobsahují žádnou užitečnou informaci. Techniky výběru rysů jsou částí obecnějších technik , která tvoří nové atributy jako funkce stávajících atributů, kdežto výběr rysů vybírá podmnožinu ze stávajících atributů. Výběr rysů se používá v těch případech a doménách, kde je mnoho atributů a k nim relativně málo příkladů (neboli datových bodů). (cs) Die Feature Subset Selection (FSS), kurz Feature Selection oder Merkmalsauswahl, ist ein Ansatz aus dem maschinellen Lernen, bei dem nur eine Teilmenge der verfügbaren Features für maschinelles Lernen verwendet wird. FSS ist notwendig, weil es teilweise technisch unmöglich ist, alle Features miteinzubeziehen oder weil es Differenzierungsprobleme gibt, wenn eine große Anzahl an Features, aber nur eine kleine Zahl an Datensätzen vorhanden ist oder um Überanpassung des Modells zu vermeiden, siehe Verzerrung-Varianz-Dilemma. (de) In machine learning and statistics, feature selection, also known as variable selection, attribute selection or variable subset selection, is the process of selecting a subset of relevant features (variables, predictors) for use in model construction. Feature selection techniques are used for several reasons: * simplification of models to make them easier to interpret by researchers/users, * shorter training times, * to avoid the curse of dimensionality, * improve data's compatibility with a learning model class, * encode inherent symmetries present in the input space. The central premise when using a feature selection technique is that the data contains some features that are either redundant or irrelevant, and can thus be removed without incurring much loss of information. Redundant and irrelevant are two distinct notions, since one relevant feature may be redundant in the presence of another relevant feature with which it is strongly correlated. Feature selection techniques should be distinguished from feature extraction. Feature extraction creates new features from functions of the original features, whereas feature selection returns a subset of the features. Feature selection techniques are often used in domains where there are many features and comparatively few samples (or data points). Archetypal cases for the application of feature selection include the analysis of written texts and DNA microarray data, where there are many thousands of features, and a few tens to hundreds of samples. (en) En aprendizaje de máquina y estadística, selección de característica, también conocida como selección de variable, selección de atributo o selección de subconjunto variable, es el proceso de seleccionar un subconjunto de características pertinentes (variables, predictores) para su uso en construcción de modelos. Las técnicas de selección de la característica son utilizadas por cuatro razones: * Simplificación de modelos con el fin de hacerlas más sencillas de interpretar para los usuarios/investigadores,​ * Tiempo de entrenamiento más corto, * Para evitar la maldición de la dimensión (curse of dimensionality), * Generalización realzada por reducir overfitting​ (formalmente, reducción de varianza) La premisa central cuando se utiliza una técnica de selección de características es que el dato contiene muchas redundantes o irrelevantes, y así pueden ser removidas sin incurrir en mucha pérdida de la información. Las características redundantes o irrelevantes son dos nociones distintas, pues una característica relevante puede ser redundante en la presencia de otra característica relevante con la que está fuertemente correlacionada. Las técnicas de selección de características deben ser distinguidas de la , la cual crea características nuevas a partir de funciones de las características originales, mientras que la selección de característica devuelve un subconjunto de las características. Las técnicas de selección de la característica son a menudo utilizadas en dominios donde hay muchas características y comparativamente pocas muestras (o puntos de dato). Los casos arquetípicos para la aplicación de la selección de característica incluye el análisis de datos de microarrays de ADN y , donde hay varios miles de características, y unas cuantas decenas a centenares de muestras. (es) La sélection de caractéristique (ou sélection d'attribut ou de variable) est un processus utilisé en apprentissage automatique et en traitement de données. Il consiste, étant donné des données dans un espace de grande dimension, à trouver un sous-sensemble de variables pertinentes. C'est-à-dire que l'on cherche à minimiser la perte d'information venant de la suppression de toutes les autres variables. C'est une méthode de réduction de la dimensionnalité. (fr) 特徴選択(とくちょうせんたく、英: feature selection)とは、機械学習と統計学の用語であり、頑健な学習モデルの構築のため、特徴集合のうち意味のある部分集合だけを選択する手法のことを指す。特徴量選択、変数選択、特徴削減、属性選択、素性選択、変数部分集合選択などとも呼ばれる。生物学の文脈では、DNAマイクロアレイの実験に基づいて影響力のある遺伝子を検出する手法を指す場合もある。不要で冗長な特徴量をデータから除去することによって、特徴選択は学習モデルを次の点で改善する: * 次元の呪いの効果を緩和する。 * 汎化性能を向上させる。 * 学習を高速化する。 * モデルの可読性を改善する。 特徴選択を行うと、データのうちどの特徴量が重要でありどのようにそれらが関係しているかなどといった点について、人間が理解しやすくなるという効果もある。 (ja) Nel riconoscimento di pattern e nell'elaborazione delle immagini la selezione delle caratteristiche (in inglese: feature selection) è una forma speciale di riduzione della dimensionalità di un determinato dataset. La selezione delle caratteristiche è il processo di riduzione degli ingressi per l'elaborazione e l'analisi o l'individuazione delle caratteristiche maggiormente significative rispetto alle altre. Similmente esiste l'estrazione di caratteristiche (in inglese: feature extraction), dove si applica il processo di estrazione di informazioni utili dai dati esistenti. La selezione delle caratteristiche risulta necessaria per creare un modello funzionale, ossia una riduzione della cardinalità, imponendo un limite superiore al numero di caratteristiche che devono essere considerate durante la creazione di questo. Solitamente i dati contengono informazioni ridondanti, ovvero più di quelle necessarie (oppure possono contenere anche informazioni errate). La selezione delle caratteristiche rende più efficiente il processo di creazione di un modello, andando ad esempio a diminuire la CPU e la memoria necessarie per l'addestramento (training), anche se vi siano casi in cui le risorse non sono un problema. La selezione delle caratteristiche viene utilizzata per tre ragioni: * semplificazione dei modelli per renderli più facili da interpretare da ricercatori / utenti; * tempi di addestramento (training) minori; * miglioramento generalizzato nella riduzione del problema di overfitting, ovvero una riduzione della varianza. (it) Отбор признаков, также известный как отбор переменных, отбор атрибутов или отбор предикторов (в редких случаях, генерализация) — это разновидность абстрагирования, процесс отбора подмножества значимых признаков (как зависимых, так и независимых переменных) для построения модели. Отбор признаков используется по четырём причинам: * упрощение модели для повышения интерпретируемости * для сокращения времени обучения * во избежание проклятия размерности * улучшение обобщающей способности модели и борьба с переобучением. Центральный посыл использования техники отбора признаков – мысль, согласно которой данные содержат некоторые признаки, если мысли излишни или незначительны, могут быть удалены без существенной потери информации. "Излишний" и "незначительный" являются двумя различными понятиями, поскольку один значимый признак может быть излишним при присутствии другого значимого признака, с которым он сильно коррелирует. Отбор признаков следует отличать от выделения признаков. Выделение признаков создаёт новые признаки, как функции от оригинальных признаков, в то время как отбор признаков возвращает подмножество признаков. Техники отбора признаков часто используются в областях, где имеется много признаков и выборки сравнительно малы (мало точек данных). Классическими местами применения отбора признаков являются анализ рукописных текстов и ДНК-микрочипы, где имеются много тысяч признаков и от десятков до сотен экземпляров выборки. (ru) 在机器学习和统计学中,特征选择(英語:feature selection)也被称为变量选择、属性选择 或变量子集选择 。它是指:为了构建模型而选择相关特征(即属性、指标)子集的过程。使用特征选择技术有三个原因: * 简化模型,使之更易于被研究人员或用户理解, * 缩短训练时间, * 改善通用性、降低过拟合(即降低方差 ) 要使用特征选择技术的关键假设是:训练数据包含许多冗余 或无关 的特征,因而移除这些特征并不会导致丢失信息。 冗余 或无关 特征是两个不同的概念。如果一个特征本身有用,但如果这个特征与另一个有用特征强相关,且那个特征也出现在数据中,那么这个特征可能是冗余的。 特征选择技术与特征提取有所不同。特征提取是从原有特征的功能中创造新的特征,而特征选择则只返回原有特征中的子集。特征选择技术的常常用于许多特征但样本(即数据点)相对较少的领域。特征选择应用的典型用例包括:解析书面文本和微阵列数据,这些场景下特征成千上万,但样本只有几十到几百个。 (zh) В машинному навчанні та статистиці обира́ння озна́к, відоме також як обира́ння змі́нних, обира́ння атрибу́тів та обира́ння підмножини́ змі́нних (англ. feature selection, variable selection, attribute selection, variable subset selection) — це процес обирання підмножини доречних ознак (змінних, провісників) для використання в побудові моделі. Методики обирання ознак застосовують із декількома цілями: * спрощення моделей, щоби зробити їх легшими для інтерпретування дослідниками/користувачами, * скорочення тривалостей тренування, * уникання прокляття розмірності, * покращення узагальнення шляхом зниження перенавчання (формально, зниження дисперсії). Центральною передумовою при застосуванні методики обирання ознак є те, що дані містять деякі ознаки, що є або надлишковими, або недоречними, і тому їх може бути усунено без спричинення значної втрати інформації. «Надлишкові» та «недоречні» є двома різними поняттями, оскільки одна доречна ознака може бути надлишковою в присутності іншої доречної ознаки, з якою вона сильно корелює. Методики обирання ознак слід відрізняти від виділяння ознак. Виділяння ознак створює нові ознаки з функцій від первинних ознак, тоді як обирання ознак повертає підмножину ознак.Методики обирання ознак часто використовують у тих областях, де є багато ознак, і порівняно мало зразків (або точок даних). До споконвічних випадків застосування обирання ознак належать аналіз писаних текстів та даних ДНК-мікрочипів, де є багато тисяч ознак, і лише від декількох десятків до сотень зразків. (uk)
dbo:thumbnail wiki-commons:Special:FilePath/Filter_Methode.png?width=300
dbo:wikiPageExternalLink http://home.penglab.com/proj/mRMR/index.htm http://mloss.org/software/view/386/ http://paul.luminos.nl/documents/show_document.php%3Fd=198 http://www.clopinet.com/isabelle/Projects/NIPS2003/ http://www.jmlr.org/papers/v3/guyon03a.html https://it.mathworks.com/matlabcentral/fileexchange/56937-feature-selection-library https://books.google.com/books%3Fid=aaDbBwAAQBAJ https://web.archive.org/web/20120511162342/http:/featureselection.asu.edu/software.php
dbo:wikiPageID 1179950 (xsd:integer)
dbo:wikiPageLength 59529 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1121376945 (xsd:integer)
dbo:wikiPageWikiLink dbr:Bayesian_information_criterion dbr:Elastic_net_regularization dbr:Ensemble_learning dbr:Entropy_rate dbr:Mutation_(genetic_algorithm) dbr:Naive_Bayes_classifier dbr:Memetic_algorithm dbr:Metaheuristic dbr:Stylometry dbr:Bayesian_Network dbr:Branch_and_bound dbr:Best-first_search dbr:Ridge_regression dbr:Curse_of_dimensionality dbr:DNA_microarray dbr:Decision_tree dbr:Decision_tree_learning dbr:Structured_prediction dbr:LOOCV dbr:Welch's_t-test dbr:Correlation dbr:Outlier dbr:Genetic_algorithm dbr:Model_selection dbr:Mutual_information dbr:Conditional_mutual_information dbr:Conference_on_Neural_Information_Processing_Systems dbr:Cross-validation_(statistics) dbr:Ant_colony_optimization_algorithms dbr:Machine_learning dbr:Simulated_annealing dbr:Statistics dbr:Cluster_analysis dbr:Computer_vision dbr:Feature_(machine_learning) dbr:Feature_extraction dbr:Identity_matrix dbr:Frobenius_norm dbr:Parity_function dbr:Partial_least_squares_regression dbr:Particle_swarm_optimization dbr:Pointwise_mutual_information dbr:Symmetric_space dbr:Tabu_search dbr:Targeted_projection_pursuit dbr:Trace_(linear_algebra) dbr:Triangle_inequality dbr:Data_mining dbr:Euclidean_Distance dbr:Lasso_(statistics) dbr:Linear_programming dbr:Akaike_information_criterion dbc:Model_selection dbr:Alzheimer's_disease dbr:Normalization_(statistics) dbr:Dimensionality_reduction dbr:Directed_graph dbr:False_discovery_rate dbr:Gram_matrix dbr:Graphical_model dbr:Hill_climbing dbr:Iterated_local_search dbr:Entropy_(Information_theory) dbr:Pearson_product-moment_correlation_coefficient dbr:Posterior_probability dbr:Quadratic_programming dbr:Regression_analysis dbr:Relief_(feature_selection) dbr:Stepwise_regression dbr:Hyperparameter_optimization dbr:Artificial_Neural_Network dbr:K-nearest_neighbors_algorithm dbr:Support_Vector_Machine dbr:Augmented_Lagrangian_method dbr:Autoencoder dbc:Dimension_reduction dbr:Bonferroni_correction dbr:Greedy_algorithm dbr:Data_preprocessing dbr:Maximum_entropy_principle dbr:Indicator_function dbr:Information_theory dbr:Minimum_description_length dbr:Average_Precision dbr:Search_algorithm dbr:Markov_blanket dbr:Mallows's_Cp dbr:Mean_squared_error dbr:Single-nucleotide_polymorphism dbr:Spearman's_rank_correlation_coefficient dbr:Sensitivity_and_specificity dbr:Variable_neighborhood_search dbr:Metric_(mathematics) dbr:Statistical_hypothesis_testing dbr:Random_multinomial_logit dbr:Evaluation_function dbr:NP-hardness dbr:Submodular_set_function dbr:Mutual_Information dbr:Support_Vector_Machines dbr:ROC_curve dbr:Branch-and-bound_algorithm dbr:Root-mean-square_error dbr:File:Feature_selection_Embedded_Method.png dbr:File:Feature_selection_Wrapper_Method.png dbr:File:Filter_Methode.png dbr:Joint_mutual_information
dbp:wikiPageUsesTemplate dbt:10^ dbt:Citation_needed dbt:Cite_book dbt:Cite_journal dbt:Math dbt:More_footnotes_needed dbt:Mvar dbt:R dbt:Reflist dbt:Short_description dbt:Tmath dbt:Machine_learning_bar
dcterms:subject dbc:Model_selection dbc:Dimension_reduction
gold:hypernym dbr:Process
rdf:type dbo:Election
rdfs:comment اختيار المميزات أو اختيار الأبعاد هي التقنية التي تستخدم بكثرة في التعلم الآلي لاختيار مجموعة جزئية من المميزات لمجموعة بيانات من أجل بناء نموذج تعليم مستقر. تساعد علمية اختيار الميزات على إعطاء فهم أوضح للناس حول البيانات عن طريق إخبارهم بالميزات الهامة للبيانات وعلاقتها مع بعضها البعض. (ar) Výběr rysů, též selekce rysů, výběr proměnných nebo výběr atributů, je ve strojovém učení a statistice proces výběru podmnožiny relevantních rysů (též slangově fíčur), které se použijí pro konstrukci modelu. Klíčový předpoklad pro užití této metody je, že data obsahují mnoho redundantních nebo nerelevantních atributů. Redundantní jsou takové, které nenesou víc informace než aktuálně vybrané atributy. Nerelevantní atributy neobsahují žádnou užitečnou informaci. Techniky výběru rysů jsou částí obecnějších technik , která tvoří nové atributy jako funkce stávajících atributů, kdežto výběr rysů vybírá podmnožinu ze stávajících atributů. Výběr rysů se používá v těch případech a doménách, kde je mnoho atributů a k nim relativně málo příkladů (neboli datových bodů). (cs) Die Feature Subset Selection (FSS), kurz Feature Selection oder Merkmalsauswahl, ist ein Ansatz aus dem maschinellen Lernen, bei dem nur eine Teilmenge der verfügbaren Features für maschinelles Lernen verwendet wird. FSS ist notwendig, weil es teilweise technisch unmöglich ist, alle Features miteinzubeziehen oder weil es Differenzierungsprobleme gibt, wenn eine große Anzahl an Features, aber nur eine kleine Zahl an Datensätzen vorhanden ist oder um Überanpassung des Modells zu vermeiden, siehe Verzerrung-Varianz-Dilemma. (de) La sélection de caractéristique (ou sélection d'attribut ou de variable) est un processus utilisé en apprentissage automatique et en traitement de données. Il consiste, étant donné des données dans un espace de grande dimension, à trouver un sous-sensemble de variables pertinentes. C'est-à-dire que l'on cherche à minimiser la perte d'information venant de la suppression de toutes les autres variables. C'est une méthode de réduction de la dimensionnalité. (fr) 特徴選択(とくちょうせんたく、英: feature selection)とは、機械学習と統計学の用語であり、頑健な学習モデルの構築のため、特徴集合のうち意味のある部分集合だけを選択する手法のことを指す。特徴量選択、変数選択、特徴削減、属性選択、素性選択、変数部分集合選択などとも呼ばれる。生物学の文脈では、DNAマイクロアレイの実験に基づいて影響力のある遺伝子を検出する手法を指す場合もある。不要で冗長な特徴量をデータから除去することによって、特徴選択は学習モデルを次の点で改善する: * 次元の呪いの効果を緩和する。 * 汎化性能を向上させる。 * 学習を高速化する。 * モデルの可読性を改善する。 特徴選択を行うと、データのうちどの特徴量が重要でありどのようにそれらが関係しているかなどといった点について、人間が理解しやすくなるという効果もある。 (ja) 在机器学习和统计学中,特征选择(英語:feature selection)也被称为变量选择、属性选择 或变量子集选择 。它是指:为了构建模型而选择相关特征(即属性、指标)子集的过程。使用特征选择技术有三个原因: * 简化模型,使之更易于被研究人员或用户理解, * 缩短训练时间, * 改善通用性、降低过拟合(即降低方差 ) 要使用特征选择技术的关键假设是:训练数据包含许多冗余 或无关 的特征,因而移除这些特征并不会导致丢失信息。 冗余 或无关 特征是两个不同的概念。如果一个特征本身有用,但如果这个特征与另一个有用特征强相关,且那个特征也出现在数据中,那么这个特征可能是冗余的。 特征选择技术与特征提取有所不同。特征提取是从原有特征的功能中创造新的特征,而特征选择则只返回原有特征中的子集。特征选择技术的常常用于许多特征但样本(即数据点)相对较少的领域。特征选择应用的典型用例包括:解析书面文本和微阵列数据,这些场景下特征成千上万,但样本只有几十到几百个。 (zh) En aprendizaje de máquina y estadística, selección de característica, también conocida como selección de variable, selección de atributo o selección de subconjunto variable, es el proceso de seleccionar un subconjunto de características pertinentes (variables, predictores) para su uso en construcción de modelos. Las técnicas de selección de la característica son utilizadas por cuatro razones: (es) In machine learning and statistics, feature selection, also known as variable selection, attribute selection or variable subset selection, is the process of selecting a subset of relevant features (variables, predictors) for use in model construction. Feature selection techniques are used for several reasons: * simplification of models to make them easier to interpret by researchers/users, * shorter training times, * to avoid the curse of dimensionality, * improve data's compatibility with a learning model class, * encode inherent symmetries present in the input space. (en) Nel riconoscimento di pattern e nell'elaborazione delle immagini la selezione delle caratteristiche (in inglese: feature selection) è una forma speciale di riduzione della dimensionalità di un determinato dataset. La selezione delle caratteristiche è il processo di riduzione degli ingressi per l'elaborazione e l'analisi o l'individuazione delle caratteristiche maggiormente significative rispetto alle altre. Similmente esiste l'estrazione di caratteristiche (in inglese: feature extraction), dove si applica il processo di estrazione di informazioni utili dai dati esistenti. (it) В машинному навчанні та статистиці обира́ння озна́к, відоме також як обира́ння змі́нних, обира́ння атрибу́тів та обира́ння підмножини́ змі́нних (англ. feature selection, variable selection, attribute selection, variable subset selection) — це процес обирання підмножини доречних ознак (змінних, провісників) для використання в побудові моделі. Методики обирання ознак застосовують із декількома цілями: (uk) Отбор признаков, также известный как отбор переменных, отбор атрибутов или отбор предикторов (в редких случаях, генерализация) — это разновидность абстрагирования, процесс отбора подмножества значимых признаков (как зависимых, так и независимых переменных) для построения модели. Отбор признаков используется по четырём причинам: * упрощение модели для повышения интерпретируемости * для сокращения времени обучения * во избежание проклятия размерности * улучшение обобщающей способности модели и борьба с переобучением. (ru)
rdfs:label اختيار المميزات (ar) Výběr rysů (cs) Feature Subset Selection (de) Selección de variable (es) Sélection de caractéristique (fr) Feature selection (en) Selezione delle caratteristiche (it) 特徴選択 (ja) Отбор признаков (ru) 特征选择 (zh) Обирання ознак (uk)
owl:sameAs freebase:Feature selection wikidata:Feature selection dbpedia-ar:Feature selection dbpedia-cs:Feature selection dbpedia-de:Feature selection dbpedia-es:Feature selection dbpedia-fr:Feature selection dbpedia-it:Feature selection dbpedia-ja:Feature selection dbpedia-ms:Feature selection dbpedia-ru:Feature selection dbpedia-uk:Feature selection dbpedia-vi:Feature selection dbpedia-zh:Feature selection https://global.dbpedia.org/id/48j1Y
prov:wasDerivedFrom wikipedia-en:Feature_selection?oldid=1121376945&ns=0
foaf:depiction wiki-commons:Special:FilePath/Feature_selection_Embedded_Method.png wiki-commons:Special:FilePath/Feature_selection_Wrapper_Method.png wiki-commons:Special:FilePath/Filter_Methode.png
foaf:isPrimaryTopicOf wikipedia-en:Feature_selection
is dbo:wikiPageRedirects of dbr:Feature_selection_problem dbr:Feature_subset_selection dbr:Variable_selection dbr:Input_selection
is dbo:wikiPageWikiLink of dbr:Bayesian_information_criterion dbr:Bayesian_structural_time_series dbr:Electricity_price_forecasting dbr:Entropy_rate dbr:List_of_genetic_algorithm_applications dbr:Multivariate_statistics dbr:Ruth_Mickey dbr:MELD-Plus dbr:Memetic_algorithm dbr:Rank_product dbr:Branch_and_bound dbr:Bias–variance_tradeoff dbr:Curse_of_dimensionality dbr:Decision-theoretic_rough_sets dbr:Decision_tree_learning dbr:Inductive_bias dbr:Information_fuzzy_networks dbr:Infoveillance dbr:Intrusion_detection_system dbr:Paula_Roberson dbr:Total_correlation dbr:Medical_image_computing dbr:Genetic_programming dbr:Oracle_Data_Mining dbr:Quantitative_structure–activity_relationship dbr:Coefficient_of_determination dbr:Genome-wide_complex_trait_analysis dbr:Glossary_of_artificial_intelligence dbr:Model_selection dbr:Mutual_information dbr:Cross-validation_(statistics) dbr:Andrew_Ng dbr:Machine_olfaction dbr:Cluster_labeling dbr:Feature_(computer_vision) dbr:Feature_(machine_learning) dbr:Feature_engineering dbr:Feature_extraction dbr:Kernel_embedding_of_distributions dbr:Pattern_recognition dbr:Tanagra_(machine_learning) dbr:Targeted_projection_pursuit dbr:Data_pre-processing dbr:Weka_(machine_learning) dbr:Learning_classifier_system dbr:Least_squares dbr:Minimum_redundancy_feature_selection dbr:Nonlinear_system_identification dbr:Rough_set dbr:Alexey_Ivakhnenko dbr:Edgar_Acuna dbr:Feature_Selection_Toolbox dbr:Dimensionality_reduction dbr:Matrix_regularization dbr:RFE dbr:Relief_(feature_selection) dbr:Isabelle_Guyon dbr:Statistical_model_specification dbr:K-nearest_neighbors_algorithm dbr:High-dimensional_statistics dbr:Hongmei_Zhang dbr:Automated_machine_learning dbr:Social_media_mining dbr:Group_method_of_data_handling dbr:Huan_Liu dbr:Kullback–Leibler_divergence dbr:Orange_(software) dbr:Sepp_Hochreiter dbr:XGBoost dbr:Mallows's_Cp dbr:Marina_Vannucci dbr:User-generated_content dbr:Word-sense_disambiguation dbr:Training,_validation,_and_test_data_sets dbr:Multivariate_adaptive_regression_spline dbr:Outline_of_machine_learning dbr:Overfitting dbr:Supervised_learning dbr:Submodular_set_function dbr:Yanxi_Liu dbr:Structured_sparsity_regularization dbr:Feature_selection_problem dbr:Feature_subset_selection dbr:Spike-and-slab_regression dbr:Variable_selection dbr:Input_selection
is foaf:primaryTopic of wikipedia-en:Feature_selection