Boosting (machine learning) (original) (raw)
Boosting (engl. „Verstärken“) ist ein Ensemble-learning-Algorithmus, der mehrere aufeinander aufbauende Klassifikations- oder Regressionsmodelle zu einem einzigen Modell verschmilzt. Die Idee des Boosting wurde 1990 von Robert Schapire eingeführt. 1997 veröffentlichten Yoav Freund und Schapire den AdaBoost-Algorithmus. Der Name kommt von der Art, wie der Algorithmus mit den Fehlern der schwächeren Klassifizierer umgeht: Er passt sich diesen an (engl. „adjusts adaptively“) indem jedes nachfolgende Modell das vorhergehende Modell verbessert.
Property | Value |
---|---|
dbo:abstract | Boosting (engl. „Verstärken“) ist ein Ensemble-learning-Algorithmus, der mehrere aufeinander aufbauende Klassifikations- oder Regressionsmodelle zu einem einzigen Modell verschmilzt. Die Idee des Boosting wurde 1990 von Robert Schapire eingeführt. 1997 veröffentlichten Yoav Freund und Schapire den AdaBoost-Algorithmus. Der Name kommt von der Art, wie der Algorithmus mit den Fehlern der schwächeren Klassifizierer umgeht: Er passt sich diesen an (engl. „adjusts adaptively“) indem jedes nachfolgende Modell das vorhergehende Modell verbessert. (de) In machine learning, boosting is an ensemble meta-algorithm for primarily reducing bias, and also variance in supervised learning, and a family of machine learning algorithms that convert weak learners to strong ones. Boosting is based on the question posed by Kearns and Valiant (1988, 1989): "Can a set of weak learners create a single strong learner?" A weak learner is defined to be a classifier that is only slightly correlated with the true classification (it can label examples better than random guessing). In contrast, a strong learner is a classifier that is arbitrarily well-correlated with the true classification. Robert Schapire's affirmative answer in a 1990 paper to the question of Kearns and Valiant has had significant ramifications in machine learning and statistics, most notably leading to the development of boosting. When first introduced, the hypothesis boosting problem simply referred to the process of turning a weak learner into a strong learner. "Informally, [the hypothesis boosting] problem asks whether an efficient learning algorithm […] that outputs a hypothesis whose performance is only slightly better than random guessing [i.e. a weak learner] implies the existence of an efficient algorithm that outputs a hypothesis of arbitrary accuracy [i.e. a strong learner]." Algorithms that achieve hypothesis boosting quickly became simply known as "boosting". Freund and Schapire's arcing (Adapt[at]ive Resampling and Combining), as a general technique, is more or less synonymous with boosting. (en) Boosting es un meta-algoritmo de aprendizaje automático que reduce el sesgo y varianza en un contexto de aprendizaje supervisado. Boosting está basado en el cuestionamiento planteado por Kearns y Valiant (1988, 1989): ¿Puede un conjunto de clasificadores débiles crear un clasificador robusto? Un clasificador débil está definido para ser un clasificador el cual está solo débilmente correlacionado con la clasificación correcta (el mismo clasifica mejor que un clasificador aleatorio). En contraste, un clasificador robusto es un clasificador que tiene un mejor desempeño que el de un clasificador débil, ya que sus clasificaciones se aproximan más a las verdaderas clases. En 1990 Robert Schapire responde afirmativamente al cuestionamiento de Kearns y Valiant en un artículo, dicha respuesta tuvo repercusiones significativas en el aprendizaje automático y la estadística, esta potente influencia llevó al desarrollo del boosting. Cuando fue introducido por primera vez, el boosting refería simplemente al problema de convertir un clasificador débil en uno robusto. «Informalmente, el problema pregunta si un algoritmo de aprendizaje eficaz […] que produce una hipótesis cuyo rendimiento es sólo ligeramente mejor que aleatorio adivinando [p. ej. un estudiante débil] implica la existencia de un algoritmo eficaz que produce una hipótesis de exactitud arbitraria [i.e. un estudiante fuerte]». Los algoritmos que alcanzan a producir dichas hipótesis pronto fueron denominados boosting. (es) Le boosting est un domaine de l'apprentissage automatique (branche de l'intelligence artificielle). C'est un principe qui regroupe de nombreux algorithmes qui s'appuient sur des ensembles de classifieurs binaires : le boosting optimise leurs performances. Le principe est issu de la combinaison de classifieurs (appelés également hypothèses). Par itérations successives, la connaissance d'un classifieur faible - weak classifier - est ajoutée au classifieur final - strong classifier. On appelle apprenant faible un algorithme qui fournit des classifieurs faibles, capables de reconnaître deux classes au moins aussi bien que le hasard ne le ferait (c’est-à-dire qu'il ne se trompe pas plus d'une fois sur deux en moyenne, si la distribution des classes est équilibrée). Le classifieur fourni est pondéré par la qualité de sa classification : mieux il classe, plus il sera important. Les exemples mal classés sont boostés pour qu'ils aient davantage d'importance vis-à-vis de l'apprenant faible au prochain tour, afin qu'il pallie le manque. Un des algorithmes les plus utilisés en boosting s'appelle AdaBoost, abréviation de adaptative boosting. Le boosting s'appuie sur la théorie de l'apprentissage PAC. (fr) Boosting adalah pembelajaran metode ensemble meta algoritma untuk terutama mengurangi bias, dan juga varians. Berbeda halnya dengan bagging dan random forest yang mendapatkan hasil prediksi dari proses bootstrap, Boosting mengacu pada kumpulan algoritma yang dapat mengkonversi weak learners untuk strong learners. Prinsip utama dari boosting adalah menyesuaikan urutan weak learners hanya sedikit lebih baik daripada tebakan acak, sementara strong learners dekat dengan kinerja sempurna seperti pohon keputusan kecil. Setiap kali pembuatan pohon, data yang digunakan tetap seperti semula tetapi memiliki sebaran bobot yang berbeda dalam tiap iterasi. Penggunaan bobot juga dilakukan pada saat proses penggabungan prediksi akhir dari banyak pohon yang dihasilkan melalui klasifikasi atau penjumlahan regresi. Boosting juga dikanal dengan sebutan AdaBoost. (in) ブースティング(英: Boosting)とは、教師あり学習を実行するための機械学習メタアルゴリズムの一種。ブースティングは、Michael Kearns の提示した「一連の弱い学習器をまとめることで強い学習器を生成できるか?」という疑問に基づいている。弱い学習器は、真の分類と若干の相関のある分類器と定義される。対照的に、強い学習器とは真の分類とよく相関する分類器である。 Michael Kearns の疑問への肯定的解答は、機械学習や統計学に多大な影響を及ぼしている。 (ja) Il boosting è una tecnica di machine learning che rientra nella categoria dell'Apprendimento ensemble. Nel boosting più modelli vengono generati consecutivamente dando sempre più peso agli errori effettuati nei modelli precedenti. In questo modo si creano modelli via via più "attenti" agli aspetti che hanno causato inesattezze nei modelli precedenti, ottenendo infine un modello aggregato avente migliore accuratezza di ciascun modello che lo costituisce. In algoritmi come , l'output del meta-classificatore è dato dalla somma pesata delle predizioni dei singoli modelli. Ogni qual volta un modello viene addestrato, ci sarà una fase di ripesaggio delle istanze. L'algoritmo di boosting tenderà a dare un peso maggiore alle istanze misclassificate, nella speranza che il successivo modello sia più esperto su quest'ultime. In generale si ha che l'errore di predizione in un problema di apprendimento supervisionato è dato da: Il boosting mira principalmente a ridurre il bias. Altre tecniche di ensemble learning, come il bagging, mirano invece a ridurre la varianza. (it) Бустинг (англ. boosting — усиление) — композиционный метаалгоритм машинного обучения, применяется, главным образом, для уменьшения смещения (погрешности оценки), а также дисперсии в обучении с учителем. Также определяется как семейство алгоритмов машинного обучения, преобразующих слабые обучающие алгоритмы в сильные. Бустинг основан на вопросе, поднятом Кернсом и Вэлиантом (1988, 1989): «Может ли набор слабых обучающих алгоритмов создать сильный обучающий алгоритм?». Слабый обучающий алгоритм определяется как классификатор, который слабо коррелирует с правильной классификацией (может пометить примеры лучше, чем случайное угадывание). В отличие от слабого алгоритма, сильный обучающий алгоритм является классификатором, хорошо коррелирующим с верной классификацией. Положительный ответ Роберта Шапире в статье 1990 года на вопрос Кернса и Вэлианта имел большое значение для теории машинного обучения и статистики, и привёл к созданию широкого спектра алгоритмов бустинга. Гипотеза о бустинге относилась к процессу настройки алгоритма слабого обучения для получения строгого обучения. Неформально, спрашивается, вытекает ли из существования эффективного алгоритма обучения, выходом которого служит гипотеза, эффективность которой лишь слегка лучше случайного гадания (то есть слабое обучение), существование эффективного алгоритма, который даёт гипотезу произвольной точности (то есть сильное обучение). Алгоритмы, которые получают быстро такую гипотезу, становятся известны просто как «бустинг». Алгоритм «arcing» Фройнда и Шапире (Adaptive Resampling and Combining), как общая техника, является более-менее синонимом бустингу (ru) 提升方法(Boosting)是一种机器学习中的集成学习元启发算法,主要用来减小監督式學習中偏差并且也减小方差,以及一系列将弱学习器转换为强学习器的机器学习算法。面對的问题是邁可·肯斯(Michael Kearns)和莱斯利·瓦利安特(Leslie Valiant)提出的:一組“弱学习者”的集合能否生成一个“强学习者”?弱学习者一般是指一个分类器,它的结果只比随机分类好一点点;强学习者指分类器的结果非常接近真值。 Robert Schapire在1990年的一篇论文中对肯斯和瓦利安特的问题的肯定回答在机器学习和统计方面产生了重大影响,最显着的是导致了的发展 。 (zh) Підси́лювання (англ. boosting) — це мета-алгоритм машинного навчання передусім для зменшення зсуву а також і дисперсії у навчанні з учителем, та сімейство алгоритмів машинного навчання, які перетворюють слабких учнів на сильних. Підсилювання ґрунтується на питанні, поставленому і Веліентом (1988, 1989): Чи може набір слабких учнів (англ. weak learners) утворити єдиного сильного учня (англ. strong learner)? Слабкого учня визначають як класифікатор, який лише трохи корелює зі справжньою класифікацією (він може мітити зразки краще за випадкове вгадування). На противагу, сильний учень є класифікатором, який корелює зі справжньою класифікацією доволі добре. Ствердна відповідь Роберта Шапіра на питання Кірнса та Веліента в праці 1990 року мала значні наслідки в машинному навчанні та статистиці, найголовніше, призвівши до розробки підсилювання. Коли її вперше було представлено, задача підсилювання гіпотези (англ. hypothesis boosting problem) означала просто процес перетворення слабкого учня на сильного. «Неформально, задача [підсилювання гіпотези] ставить питання, чи ефективний алгоритм навчання […], який видає гіпотезу, чия ефективність лише трохи краща за випадкове вгадування [тобто, слабкий учень], означає існування ефективного алгоритму, який видає гіпотезу довільної точності [тобто, сильного учня].» Алгоритми, що швидко досягають підсилювання гіпотези, стали називати просто «підсилюванням». ARCing (англ. Adapt[at]ive Resampling and Combining, адаптивна перевібирка та об'єднування) та Шапіро, як загальна методика, є більш-менш синонімічною підсилюванню. (uk) |
dbo:thumbnail | wiki-commons:Special:FilePath/Ensemble_Boosting.svg?width=300 |
dbo:wikiPageExternalLink | http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/colt08.pdf http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/aij13marginbound.pdf http://docs.orange.biolab.si/reference/rst/Orange.ensemble.html https://www.cse.ucsd.edu/~yfreund/papers/adaboost.pdf https://sourceforge.net/projects/jboost/ https://cran.r-project.org/web/packages/adabag/index.html https://cran.r-project.org/web/packages/gbm/index.html https://cran.r-project.org/web/packages/xgboost/index.html http://www.slideshare.net/hustwj/ccl2014-keynote%3Fqid=dc589369-18c7-4c8a-8f79-938981d2418f http://citeseer.ist.psu.edu/schapire99improved.html http://www.cs.princeton.edu/courses/archive/spr08/cos424/readings/Schapire2003.pdf |
dbo:wikiPageID | 90500 (xsd:integer) |
dbo:wikiPageLength | 21369 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1115063657 (xsd:integer) |
dbo:wikiPageWikiLink | dbr:Car dbr:Python_(programming_language) dbr:Robert_Schapire dbr:Scikit-learn dbr:Ensemble_learning dbr:Michael_Kearns_(computer_scientist) dbr:Naive_Bayes_classifier dbr:Neural_network dbr:Probably_approximately_correct_learning dbr:Patterns dbr:Viola–Jones_object_detection_framework dbc:Classification_algorithms dbr:Convex_optimization dbr:Generalization dbr:Gradient_descent dbr:Convex_function dbr:Cross-validation_(statistics) dbr:LPBoost dbr:Zhou_Zhihua dbr:Leslie_Valiant dbr:Logarithm dbr:Machine_learning dbr:Statistics dbr:Computer_vision dbr:Feature_(computer_vision) dbr:Feature_extraction dbr:Function_space dbr:Bag_of_words_model dbr:AdaBoost dbr:Adaptive_behavior dbc:Ensemble_learning dbr:Weighting dbr:Weka_(machine_learning) dbr:Classification_(machine_learning) dbr:Gödel_Prize dbr:Logistic_regression dbr:LogitBoost dbc:Object_recognition_and_categorization dbr:Alternating_decision_tree dbr:Gradient_boosting dbr:Yoav_Freund dbr:Object_recognition dbr:Random_forest dbr:Hypothesis dbr:Margin_classifier dbr:Learning dbr:Support_vector_machine dbr:CoBoosting dbr:Edge_detection dbr:Bootstrap_aggregating dbc:Learning_in_computer_vision dbr:Meta-algorithm dbr:BrownBoost dbr:Orange_(software) dbr:Cascading_classifiers dbr:R_(programming_language) dbr:Recursion_(computer_science) dbr:Xgboost dbr:Loss_functions_for_classification dbr:Principle_of_maximum_entropy dbr:Scale-invariant_feature_transform dbr:Scaling_(geometry) dbr:Shape_analysis_(digital_geometry) dbr:Statistical_classification dbr:Face dbr:Illumination_(image) dbr:Linear dbr:Unsupervised_learning dbr:Object_categorization_from_image_search dbr:Type_I_and_type_II_errors dbr:List_of_datasets_for_machine_learning_research dbr:Supervised_learning dbr:Training_data dbr:Classifier_(mathematics) dbr:Mixtures_of_Gaussians dbr:Binary_categorization dbr:Multi-class_categorization dbr:Multi-class_classification dbr:File:Ensemble_Boosting.svg dbr:GentleBoost |
dbp:?_ | yes (en) |
dbp:date | October 2018 (en) |
dbp:reason | The source is from 2007 and computer vision is a lot more advanced now (en) What spirit? (en) |
dbp:wikiPageUsesTemplate | dbt:Authority_control dbt:Cite_journal dbt:Clarify dbt:Div_col dbt:Div_col_end dbt:Main dbt:NoteFoot dbt:NoteTag dbt:Reflist dbt:Short_description dbt:Update_inline dbt:Which dbt:How_many dbt:Machine_learning |
dcterms:subject | dbc:Classification_algorithms dbc:Ensemble_learning dbc:Object_recognition_and_categorization dbc:Learning_in_computer_vision |
gold:hypernym | dbr:Machine |
rdf:type | owl:Thing dbo:Software yago:WikicatClassificationAlgorithms yago:Abstraction100002137 yago:Act100030358 yago:Activity100407535 yago:Algorithm105847438 yago:Event100029378 yago:Procedure101023820 yago:PsychologicalFeature100023100 yago:YagoPermanentlyLocatedEntity yago:Rule105846932 |
rdfs:comment | Boosting (engl. „Verstärken“) ist ein Ensemble-learning-Algorithmus, der mehrere aufeinander aufbauende Klassifikations- oder Regressionsmodelle zu einem einzigen Modell verschmilzt. Die Idee des Boosting wurde 1990 von Robert Schapire eingeführt. 1997 veröffentlichten Yoav Freund und Schapire den AdaBoost-Algorithmus. Der Name kommt von der Art, wie der Algorithmus mit den Fehlern der schwächeren Klassifizierer umgeht: Er passt sich diesen an (engl. „adjusts adaptively“) indem jedes nachfolgende Modell das vorhergehende Modell verbessert. (de) ブースティング(英: Boosting)とは、教師あり学習を実行するための機械学習メタアルゴリズムの一種。ブースティングは、Michael Kearns の提示した「一連の弱い学習器をまとめることで強い学習器を生成できるか?」という疑問に基づいている。弱い学習器は、真の分類と若干の相関のある分類器と定義される。対照的に、強い学習器とは真の分類とよく相関する分類器である。 Michael Kearns の疑問への肯定的解答は、機械学習や統計学に多大な影響を及ぼしている。 (ja) 提升方法(Boosting)是一种机器学习中的集成学习元启发算法,主要用来减小監督式學習中偏差并且也减小方差,以及一系列将弱学习器转换为强学习器的机器学习算法。面對的问题是邁可·肯斯(Michael Kearns)和莱斯利·瓦利安特(Leslie Valiant)提出的:一組“弱学习者”的集合能否生成一个“强学习者”?弱学习者一般是指一个分类器,它的结果只比随机分类好一点点;强学习者指分类器的结果非常接近真值。 Robert Schapire在1990年的一篇论文中对肯斯和瓦利安特的问题的肯定回答在机器学习和统计方面产生了重大影响,最显着的是导致了的发展 。 (zh) In machine learning, boosting is an ensemble meta-algorithm for primarily reducing bias, and also variance in supervised learning, and a family of machine learning algorithms that convert weak learners to strong ones. Boosting is based on the question posed by Kearns and Valiant (1988, 1989): "Can a set of weak learners create a single strong learner?" A weak learner is defined to be a classifier that is only slightly correlated with the true classification (it can label examples better than random guessing). In contrast, a strong learner is a classifier that is arbitrarily well-correlated with the true classification. (en) Boosting es un meta-algoritmo de aprendizaje automático que reduce el sesgo y varianza en un contexto de aprendizaje supervisado. Boosting está basado en el cuestionamiento planteado por Kearns y Valiant (1988, 1989): ¿Puede un conjunto de clasificadores débiles crear un clasificador robusto? Un clasificador débil está definido para ser un clasificador el cual está solo débilmente correlacionado con la clasificación correcta (el mismo clasifica mejor que un clasificador aleatorio). En contraste, un clasificador robusto es un clasificador que tiene un mejor desempeño que el de un clasificador débil, ya que sus clasificaciones se aproximan más a las verdaderas clases. (es) Boosting adalah pembelajaran metode ensemble meta algoritma untuk terutama mengurangi bias, dan juga varians. Berbeda halnya dengan bagging dan random forest yang mendapatkan hasil prediksi dari proses bootstrap, Boosting mengacu pada kumpulan algoritma yang dapat mengkonversi weak learners untuk strong learners. Prinsip utama dari boosting adalah menyesuaikan urutan weak learners hanya sedikit lebih baik daripada tebakan acak, sementara strong learners dekat dengan kinerja sempurna seperti pohon keputusan kecil. Setiap kali pembuatan pohon, data yang digunakan tetap seperti semula tetapi memiliki sebaran bobot yang berbeda dalam tiap iterasi. Penggunaan bobot juga dilakukan pada saat proses penggabungan prediksi akhir dari banyak pohon yang dihasilkan melalui klasifikasi atau penjumlahan (in) Le boosting est un domaine de l'apprentissage automatique (branche de l'intelligence artificielle). C'est un principe qui regroupe de nombreux algorithmes qui s'appuient sur des ensembles de classifieurs binaires : le boosting optimise leurs performances. Le principe est issu de la combinaison de classifieurs (appelés également hypothèses). Par itérations successives, la connaissance d'un classifieur faible - weak classifier - est ajoutée au classifieur final - strong classifier. Un des algorithmes les plus utilisés en boosting s'appelle AdaBoost, abréviation de adaptative boosting. (fr) Il boosting è una tecnica di machine learning che rientra nella categoria dell'Apprendimento ensemble. Nel boosting più modelli vengono generati consecutivamente dando sempre più peso agli errori effettuati nei modelli precedenti. In questo modo si creano modelli via via più "attenti" agli aspetti che hanno causato inesattezze nei modelli precedenti, ottenendo infine un modello aggregato avente migliore accuratezza di ciascun modello che lo costituisce. In generale si ha che l'errore di predizione in un problema di apprendimento supervisionato è dato da: (it) Бустинг (англ. boosting — усиление) — композиционный метаалгоритм машинного обучения, применяется, главным образом, для уменьшения смещения (погрешности оценки), а также дисперсии в обучении с учителем. Также определяется как семейство алгоритмов машинного обучения, преобразующих слабые обучающие алгоритмы в сильные. Положительный ответ Роберта Шапире в статье 1990 года на вопрос Кернса и Вэлианта имел большое значение для теории машинного обучения и статистики, и привёл к созданию широкого спектра алгоритмов бустинга. (ru) Підси́лювання (англ. boosting) — це мета-алгоритм машинного навчання передусім для зменшення зсуву а також і дисперсії у навчанні з учителем, та сімейство алгоритмів машинного навчання, які перетворюють слабких учнів на сильних. Підсилювання ґрунтується на питанні, поставленому і Веліентом (1988, 1989): Чи може набір слабких учнів (англ. weak learners) утворити єдиного сильного учня (англ. strong learner)? Слабкого учня визначають як класифікатор, який лише трохи корелює зі справжньою класифікацією (він може мітити зразки краще за випадкове вгадування). На противагу, сильний учень є класифікатором, який корелює зі справжньою класифікацією доволі добре. (uk) |
rdfs:label | Boosting (ca) Boosting (de) Boosting (machine learning) (en) Boosting (es) Boosting (in) Boosting (it) Boosting (fr) ブースティング (ja) Бустинг (ru) Підсилювання (машинне навчання) (uk) 提升方法 (zh) |
owl:sameAs | freebase:Boosting (machine learning) yago-res:Boosting (machine learning) wikidata:Boosting (machine learning) dbpedia-ca:Boosting (machine learning) dbpedia-de:Boosting (machine learning) dbpedia-es:Boosting (machine learning) dbpedia-fa:Boosting (machine learning) dbpedia-fr:Boosting (machine learning) dbpedia-id:Boosting (machine learning) dbpedia-it:Boosting (machine learning) dbpedia-ja:Boosting (machine learning) dbpedia-ru:Boosting (machine learning) dbpedia-sr:Boosting (machine learning) dbpedia-uk:Boosting (machine learning) dbpedia-zh:Boosting (machine learning) https://global.dbpedia.org/id/4Kdpi |
prov:wasDerivedFrom | wikipedia-en:Boosting_(machine_learning)?oldid=1115063657&ns=0 |
foaf:depiction | wiki-commons:Special:FilePath/Ensemble_Boosting.svg |
foaf:isPrimaryTopicOf | wikipedia-en:Boosting_(machine_learning) |
is dbo:wikiPageDisambiguates of | dbr:Boost |
is dbo:wikiPageRedirects of | dbr:Boosting_methods_for_object_categorization dbr:Boosting_algorithms dbr:Boosting_(meta-algorithm) dbr:Weak_classifier dbr:Weak_learner |
is dbo:wikiPageWikiLink of | dbr:Probabilistic_classification dbr:Ensemble_learning dbr:Michael_Kearns_(computer_scientist) dbr:Boosting_methods_for_object_categorization dbr:Bias–variance_tradeoff dbr:Viola–Jones_object_detection_framework dbr:Decision_tree dbr:Early_stopping dbr:Generalized_additive_model dbr:Cross-validation_(statistics) dbr:LPBoost dbr:Computational_learning_theory dbr:Federated_learning dbr:Data_binning dbr:Alternating_decision_tree dbr:Gradient_boosting dbr:JASP dbr:Boost dbr:Boosting_algorithms dbr:Margin_classifier dbr:C4.5_algorithm dbr:Platt_scaling dbr:Klaus-Robert_Müller dbr:BrownBoost dbr:Shrinkage_(statistics) dbr:Multiple_instance_learning dbr:Multiplicative_weight_update_method dbr:Vapnik–Chervonenkis_dimension dbr:Phenotype_microarray dbr:Outline_of_machine_learning dbr:Paris_Kanellakis_Award dbr:Boosting_(meta-algorithm) dbr:Weak_classifier dbr:Weak_learner |
is foaf:primaryTopic of | wikipedia-en:Boosting_(machine_learning) |