Naive Bayes classifier (original) (raw)

About DBpedia

المصنف البايزي الساذج (بالإنجليزية: naive Bayes classifier)‏ هي عائلة من المصنفات الاحتمالية البسيطة على أساس تطبيق نظرية بايز مع افتراضات استقلالية (ساذجة) قوية بين الميزات. هم من أبسط نماذج شبكة بايز. ولكن يمكن أن يقترن و تحقيق مستويات دقة أعلى. هذه الخوارزمية نموذج مصنف توليدي (بالإنجليزية: generative algorithm)‏. تمت دراسة بايز ساذج على نطاق واسع منذ الستينيات. تم إدخاله (على الرغم من أنه ليس تحت هذا الاسم) في مجتمع استرجاع المعلومات في أوائل الستينيات، ولا يزال طريقة شائعة .

thumbnail

Property Value
dbo:abstract المصنف البايزي الساذج (بالإنجليزية: naive Bayes classifier)‏ هي عائلة من المصنفات الاحتمالية البسيطة على أساس تطبيق نظرية بايز مع افتراضات استقلالية (ساذجة) قوية بين الميزات. هم من أبسط نماذج شبكة بايز. ولكن يمكن أن يقترن و تحقيق مستويات دقة أعلى. هذه الخوارزمية نموذج مصنف توليدي (بالإنجليزية: generative algorithm)‏. تمت دراسة بايز ساذج على نطاق واسع منذ الستينيات. تم إدخاله (على الرغم من أنه ليس تحت هذا الاسم) في مجتمع استرجاع المعلومات في أوائل الستينيات، ولا يزال طريقة شائعة . (ar) En teoría de la probabilidad y minería de datos, un clasificador Naive Bayes es un clasificador probabilístico fundamentado en el teorema de Bayes y algunas hipótesis simplificadoras adicionales. Es a causa de estas simplificaciones, que se suelen resumir en la hipótesis de independencia entre las variables predictoras, que recibe el apelativo de naive, es decir, ingenuo. (es) Datu meatzaritzan, Naive Bayes sailkatzailea Bayes-en teoreman eta aldagaien arteko independentziaren hipotesian oinarritzen den sailkatzaile probabilistiko bat da. Aldagaiak independente direla suposatzeak eragiten duen sinplifikazioagatik hartzen du, hain zuzen ere, Naive izena. (eu) In statistics, naive Bayes classifiers are a family of simple "probabilistic classifiers" based on applying Bayes' theorem with strong (naive) independence assumptions between the features (see Bayes classifier). They are among the simplest Bayesian network models, but coupled with kernel density estimation, they can achieve high accuracy levels. Naive Bayes classifiers are highly scalable, requiring a number of parameters linear in the number of variables (features/predictors) in a learning problem. Maximum-likelihood training can be done by evaluating a closed-form expression, which takes linear time, rather than by expensive iterative approximation as used for many other types of classifiers. In the statistics literature, naive Bayes models are known under a variety of names, including simple Bayes and independence Bayes. All these names reference the use of Bayes' theorem in the classifier's decision rule, but naive Bayes is not (necessarily) a Bayesian method. (en) La classification naïve bayésienne est un type de classification bayésienne probabiliste simple basée sur le théorème de Bayes avec une forte indépendance (dite naïve) des hypothèses. Elle met en œuvre un classifieur bayésien naïf, ou classifieur naïf de Bayes, appartenant à la famille des classifieurs linéaires. Un terme plus approprié pour le modèle probabiliste sous-jacent pourrait être « modèle à caractéristiques statistiquement indépendantes ». En termes simples, un classifieur bayésien naïf suppose que l'existence d'une caractéristique pour une classe, est indépendante de l'existence d'autres caractéristiques. Un fruit peut être considéré comme une pomme s'il est rouge, arrondi, et fait une dizaine de centimètres. Même si ces caractéristiques sont liées dans la réalité, un classifieur bayésien naïf déterminera que le fruit est une pomme en considérant indépendamment ces caractéristiques de couleur, de forme et de taille. Selon la nature de chaque modèle probabiliste, les classifieurs bayésiens naïfs peuvent être entraînés efficacement dans un contexte d'apprentissage supervisé. Dans beaucoup d'applications pratiques, l'estimation des paramètres pour les modèles bayésiens naïfs repose sur le maximum de vraisemblance. Autrement dit, il est possible de travailler avec le modèle bayésien naïf sans se préoccuper de probabilité bayésienne ou utiliser les méthodes bayésiennes. Malgré leur modèle de conception « naïf » et ses hypothèses de base extrêmement simplistes, les classifieurs bayésiens naïfs ont fait preuve d'une efficacité plus que suffisante dans beaucoup de situations réelles complexes. En 2004, un article a montré qu'il existe des raisons théoriques derrière cette efficacité inattendue. Toutefois, une autre étude de 2006 montre que des approches plus récentes permettent d'obtenir de meilleurs résultats. L'avantage du classifieur bayésien naïf est qu'il requiert relativement peu de données d'entraînement pour estimer les paramètres nécessaires à la classification, à savoir moyennes et variances des différentes variables. En effet, l'hypothèse d'indépendance des variables permet de se contenter de la variance de chacune d'entre elles pour chaque classe, sans avoir à calculer de matrice de covariance. (fr) Naive Bayes classifier (NBC) merupakan salah satu metoda pemelajaran mesin yang memanfaatkan perhitungan probabilitas dan statistik yang dikemukakan oleh ilmuwan Inggris , yaitu memprediksi probabilitas pada masa depan berdasarkan pengalaman pada masa sebelumnya. (in) 単純ベイズ分類器(たんじゅんベイズぶんるいき、英: Naive Bayes classifier)は、単純な確率的分類器である。 (ja) 기계 학습분야에서, '나이브 베이즈 분류(Naïve Bayes Classification)는 특성들 사이의 독립을 가정하는 베이즈 정리를 적용한 확률 분류기의 일종으로 1950년대 이후 광범위하게 연구되고 있다. 통계 및 컴퓨터 과학 문헌에서 , 나이브 베이즈는 단순 베이즈, 독립 베이즈를 포함한 다양한 이름으로 알려져 있으며, 1960년대 초에 텍스트 검색 커뮤니티에 다른 이름으로 소개되기도 하였다. 나이브 베이즈 분류는 텍스트 분류에 사용됨으로써 문서를 여러 범주 (예: 스팸, 스포츠, 정치)중 하나로 판단하는 문제에 대한 대중적인 방법으로 남아있다.또한, 자동 의료 진단 분야에서의 응용사례를 보면, 적절한 전처리를 하면 더 진보된 방법들 (예: 서포트 벡터 머신 (Support Vector Machine))과도 충분한 경쟁력을 보임을 알 수 있다. (ko) Наи́вный ба́йесовский классифика́тор — простой вероятностный классификатор, основанный на применении теоремы Байеса со строгими (наивными) предположениями о независимости. В зависимости от точной природы вероятностной модели, наивные байесовские классификаторы могут обучаться очень эффективно. Во многих практических приложениях для оценки параметров для наивных байесовых моделей используют метод максимального правдоподобия; другими словами, можно работать с наивной байесовской моделью, не веря в байесовскую вероятность и не используя байесовские методы. Несмотря на наивный вид и, несомненно, очень упрощенные условия, наивные байесовские классификаторы часто работают намного лучше нейронных сетей во многих сложных жизненных ситуациях. Достоинством наивного байесовского классификатора является малое количество данных, необходимых для обучения, оценки параметров и классификации. (ru) Naiwny klasyfikator bayesowski, naiwny klasyfikator Bayesa – prosty probabilistyczny. Naiwne klasyfikatory bayesowskie są oparte na założeniu o wzajemnej niezależności predyktorów (zmiennych niezależnych). Często nie mają one żadnego związku z rzeczywistością i właśnie z tego powodu nazywa się je naiwnymi. Bardziej opisowe jest określenie – „model cech niezależnych”. Ponadto model prawdopodobieństwa można wyprowadzić korzystając z twierdzenia Bayesa. W zależności od rodzaju dokładności modelu prawdopodobieństwa, naiwne klasyfikatory bayesowskie można skutecznie „uczyć” w trybie uczenia z nadzorem. W wielu praktycznych aplikacjach, estymacja parametru dla naiwnych modeli Bayesa używa a posteriori; inaczej mówiąc, można pracować z naiwnym modelem Bayesa bez wierzenia w twierdzenie Bayesa albo używania jakichś metod Bayesa. Pomimo ich naiwnego projektowania i bardzo uproszczonych założeń, w wielu rzeczywistych sytuacjach naiwne klasyfikatory Bayesa często pracują dużo lepiej, niż można było tego oczekiwać. (pl) I maskininlärning är naiva bayesianska klassificerare en familj av enkla sannolikhetsbaserade klassificerare baserade på tillämpning av Bayes sats med starka (naiva) oberoende antaganden mellan funktionerna. Alternativet hade varit att modellera den fulla betingade fördelningen givet klassen. (sv) 朴素贝叶斯分类器(英語:Naive Bayes classifier,台湾稱為單純貝氏分類器),在机器学习中是一系列以假设特征之间强(朴素)独立下运用贝叶斯定理为基础的简单。 單純貝氏自1950年代已广泛研究,在1960年代初就以另外一个名称引入到文本信息检索界中, 并仍然是文本分类的一种热门(基准)方法,文本分类是以词频为特征判断文件所属类别或其他(如垃圾邮件、合法性、体育或政治等等)的问题。通过适当的预处理,它可以与这个领域更先进的方法(包括支持向量机)相竞争。 它在自动医疗诊断中也有应用。 單純貝氏分类器是高度可扩展的,因此需要数量与学习问题中的变量(特征/预测器)成线性关系的参数。最大似然训练可以通过评估一个封闭形式的表达式来完成, 只需花费线性时间,而不需要其他很多类型的分类器所使用的费时的迭代逼近。 在统计学和计算机科学文献中,單純貝氏模型有各种名称,包括简单贝叶斯和独立贝叶斯。 所有这些名称都参考了贝叶斯定理在该分类器的决策规则中的使用,但單純貝氏不(一定)用到贝叶斯方法; 《》提到“『單純貝氏』有时被称为贝叶斯分类器,这个马虎的使用促使真正的贝叶斯论者称之为傻瓜贝叶斯模型。” (zh) Наївний баєсів класифікатор — ймовірнісний класифікатор, що використовує теорему Баєса для визначення ймовірності приналежності спостереження (елемента вибірки) до одного з класів при припущенні (наївному) незалежності змінних. Тобто, якщо на основі значень змінних можна однозначно визначити, до якого класу належить спостереження, баєсів класифікатор повідомить ймовірність приналежності до цього класу. У проміжних же випадках, коли спостереження може з різною ймовірністю належати до різних класів, результатом роботи класифікатора буде вектор, компоненти якого є ймовірностями приналежності до того чи іншого класу. Можна бачити, що ідеальний баєсів класифікатор в якомусь сенсі є оптимальним. Його результат не може бути поліпшений, тому що в усіх випадках, коли можлива однозначна відповідь, він її дасть — а в тих випадках, коли відповідь неоднозначна, результат кількісно характеризує міру цієї неоднозначності. Разом з тим, в оптимальності криється і основний недолік ідеального баєсового класифікатора: для його побудови потрібна вибірка, що містить всі можливі комбінації змінних — а розмір такої вибірки експоненціально зростає із зростанням числа змінних (див. «прокляття розмірності»).Для подолання описаної вище проблеми на практиці використовують наївний баєсів класифікатор — класифікатор, побудований на основі припущення про незалежність змінних, тобто припущення про те, що використання цього припущення дозволяє не вивчати взаємодію всіх можливих поєднань змінних, обмежившись лише впливом кожної змінної окремо на приналежність образу до одного з класів. Перевагою цього підходу є те, що вимоги до розміру вибірки скорочуються від експоненційних до лінійних. Недоліком — те, що модель є точною лише у випадку, коли виконується припущення про незалежність. В іншому випадку, щиро кажучи, обчислені ймовірності вже не є точними (і навіть більше того, їх сума може не дорівнювати одиниці, через що потрібно нормувати результат). Однак на практиці незначні відхилення від незалежності призводять лише до незначного зниження точності, і навіть у разі істотної залежності між змінними результат роботи класифікатора продовжує корелювати з істинною приналежністю образу до класів. При цьому переваги класифікатора (висока швидкість роботи, простота і масштабованість, помірні вимоги до пам'яті) часто переважують недоліки. (uk)
dbo:thumbnail wiki-commons:Special:FilePath/ROC_curves.svg?width=300
dbo:wikiPageExternalLink http://classifier4j.sourceforge.net/ http://jbnc.sourceforge.net/ http://naivebayesclassifier.org/ http://nclassifier.sourceforge.net/ http://tunedit.org/results%3Fd=UCI/&a=bayes http://people.csail.mit.edu/jrennie/ifile/ http://citeseer.ist.psu.edu/domingos97optimality.html http://nlp.stanford.edu/IR-book/html/htmledition/naive-bayes-text-classification-1.html http://cmp.felk.cvut.cz/cmp/software/stprtool/ http://www.cs.waikato.ac.nz/~eibe/pubs/FrankAndBouckaertPKDD06new.pdf http://downloads.sourceforge.net/naivebayesclass/NaiveBayesDemo.xls%3Fuse_mirror=osdn http://eprints.fri.uni-lj.si/154/01/PKDD_camera_mozina.pdf http://mallet.cs.umass.edu/ https://github.com/Tradeshift/blayze http://www.biomedcentral.com/1471-2105/7/514
dbo:wikiPageID 87339 (xsd:integer)
dbo:wikiPageLength 36912 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1118900065 (xsd:integer)
dbo:wikiPageWikiLink dbr:Bayes_classifier dbr:Bayesian_probability dbr:Probabilistic_classification dbr:Proportionality_(mathematics) dbr:Pseudocount dbr:Scikit-learn dbr:Multinomial_distribution dbr:Multinomial_logistic_regression dbr:Nonparametric dbr:Bayes'_theorem dbr:Bayesian_network dbr:Bernoulli_distribution dbr:Boolean_data_type dbr:Algorithm dbr:Bessel's_correction dbr:Perceptron dbr:Curse_of_dimensionality dbr:Variance dbr:Visual_Basic_for_Applications dbr:Decision_rule dbc:Classification_algorithms dbr:Conditional_independence dbr:Conditional_probability dbr:Correlation_and_dependence dbr:Maximum_a_posteriori dbr:Odds dbr:Mixture_model dbr:Conditional_probability_table dbr:Andrew_Ng dbr:Apache_Mahout dbr:Likelihood dbr:Likelihood_function dbr:Linear_time dbr:Logarithm dbr:Logistic_function dbr:Logit dbr:Sigmoid_curve dbr:Statistics dbr:Closed-form_expression dbr:Kernel_density_estimation dbr:Machine_Learning_(journal) dbr:Spamming dbr:Weka_(machine_learning) dbr:Document_classification dbr:Feature_vector dbr:Linear_classifier dbr:Logistic_regression dbr:E-mail dbr:Normal_distribution dbr:Bayesian_spam_filtering dbr:Discretization_error dbr:Discretization_of_continuous_features dbr:Histogram dbr:Iterative_method dbr:Journal_of_the_ACM dbr:Regularization_(mathematics) dbr:AODE dbr:Boosted_trees dbc:Bayesian_statistics dbr:Binary_data dbr:Support_vector_machine dbr:Efficacy dbc:Statistical_classification dbr:Softmax_function dbr:Independence_(probability_theory) dbr:Michael_I._Jordan dbr:Microsoft_Excel dbr:Orange_(software) dbr:Chain_rule_(probability) dbr:Tf–idf dbr:Maximum_likelihood dbr:Semi-supervised_learning dbr:Statistical_classification dbr:Expectation–maximization_algorithm dbr:IMSL_Numerical_Libraries dbr:Log-likelihood_ratio dbr:Maximum-likelihood_estimation dbr:Take-the-best_heuristic dbr:Random_naive_Bayes dbr:Statistical_independence dbr:Laplace_smoothing dbr:Lidstone_smoothing dbr:Joint_probability dbr:Mutually_independent dbr:Random_forests dbr:Probability_model dbr:Bag_of_words dbr:NLTK dbr:File:ROC_curves.svg
dbp:mathStatement Naive Bayes classifiers on binary features are subsumed by logistic regression classifiers. (en)
dbp:name Theorem (en)
dbp:wikiPageUsesTemplate dbt:Citation_needed dbt:Cite_conference dbt:Cite_journal dbt:Math dbt:More_footnotes dbt:Mvar dbt:Reflist dbt:Rp dbt:Short_description dbt:Math_proof dbt:Math_theorem dbt:Bayesian_statistics
dct:subject dbc:Classification_algorithms dbc:Bayesian_statistics dbc:Statistical_classification
gold:hypernym dbr:Family
rdf:type yago:WikicatClassificationAlgorithms yago:Abstraction100002137 yago:Act100030358 yago:Activity100407535 yago:Algorithm105847438 yago:Event100029378 yago:Procedure101023820 yago:PsychologicalFeature100023100 yago:YagoPermanentlyLocatedEntity yago:Rule105846932
rdfs:comment المصنف البايزي الساذج (بالإنجليزية: naive Bayes classifier)‏ هي عائلة من المصنفات الاحتمالية البسيطة على أساس تطبيق نظرية بايز مع افتراضات استقلالية (ساذجة) قوية بين الميزات. هم من أبسط نماذج شبكة بايز. ولكن يمكن أن يقترن و تحقيق مستويات دقة أعلى. هذه الخوارزمية نموذج مصنف توليدي (بالإنجليزية: generative algorithm)‏. تمت دراسة بايز ساذج على نطاق واسع منذ الستينيات. تم إدخاله (على الرغم من أنه ليس تحت هذا الاسم) في مجتمع استرجاع المعلومات في أوائل الستينيات، ولا يزال طريقة شائعة . (ar) En teoría de la probabilidad y minería de datos, un clasificador Naive Bayes es un clasificador probabilístico fundamentado en el teorema de Bayes y algunas hipótesis simplificadoras adicionales. Es a causa de estas simplificaciones, que se suelen resumir en la hipótesis de independencia entre las variables predictoras, que recibe el apelativo de naive, es decir, ingenuo. (es) Datu meatzaritzan, Naive Bayes sailkatzailea Bayes-en teoreman eta aldagaien arteko independentziaren hipotesian oinarritzen den sailkatzaile probabilistiko bat da. Aldagaiak independente direla suposatzeak eragiten duen sinplifikazioagatik hartzen du, hain zuzen ere, Naive izena. (eu) Naive Bayes classifier (NBC) merupakan salah satu metoda pemelajaran mesin yang memanfaatkan perhitungan probabilitas dan statistik yang dikemukakan oleh ilmuwan Inggris , yaitu memprediksi probabilitas pada masa depan berdasarkan pengalaman pada masa sebelumnya. (in) 単純ベイズ分類器(たんじゅんベイズぶんるいき、英: Naive Bayes classifier)は、単純な確率的分類器である。 (ja) 기계 학습분야에서, '나이브 베이즈 분류(Naïve Bayes Classification)는 특성들 사이의 독립을 가정하는 베이즈 정리를 적용한 확률 분류기의 일종으로 1950년대 이후 광범위하게 연구되고 있다. 통계 및 컴퓨터 과학 문헌에서 , 나이브 베이즈는 단순 베이즈, 독립 베이즈를 포함한 다양한 이름으로 알려져 있으며, 1960년대 초에 텍스트 검색 커뮤니티에 다른 이름으로 소개되기도 하였다. 나이브 베이즈 분류는 텍스트 분류에 사용됨으로써 문서를 여러 범주 (예: 스팸, 스포츠, 정치)중 하나로 판단하는 문제에 대한 대중적인 방법으로 남아있다.또한, 자동 의료 진단 분야에서의 응용사례를 보면, 적절한 전처리를 하면 더 진보된 방법들 (예: 서포트 벡터 머신 (Support Vector Machine))과도 충분한 경쟁력을 보임을 알 수 있다. (ko) I maskininlärning är naiva bayesianska klassificerare en familj av enkla sannolikhetsbaserade klassificerare baserade på tillämpning av Bayes sats med starka (naiva) oberoende antaganden mellan funktionerna. Alternativet hade varit att modellera den fulla betingade fördelningen givet klassen. (sv) 朴素贝叶斯分类器(英語:Naive Bayes classifier,台湾稱為單純貝氏分類器),在机器学习中是一系列以假设特征之间强(朴素)独立下运用贝叶斯定理为基础的简单。 單純貝氏自1950年代已广泛研究,在1960年代初就以另外一个名称引入到文本信息检索界中, 并仍然是文本分类的一种热门(基准)方法,文本分类是以词频为特征判断文件所属类别或其他(如垃圾邮件、合法性、体育或政治等等)的问题。通过适当的预处理,它可以与这个领域更先进的方法(包括支持向量机)相竞争。 它在自动医疗诊断中也有应用。 單純貝氏分类器是高度可扩展的,因此需要数量与学习问题中的变量(特征/预测器)成线性关系的参数。最大似然训练可以通过评估一个封闭形式的表达式来完成, 只需花费线性时间,而不需要其他很多类型的分类器所使用的费时的迭代逼近。 在统计学和计算机科学文献中,單純貝氏模型有各种名称,包括简单贝叶斯和独立贝叶斯。 所有这些名称都参考了贝叶斯定理在该分类器的决策规则中的使用,但單純貝氏不(一定)用到贝叶斯方法; 《》提到“『單純貝氏』有时被称为贝叶斯分类器,这个马虎的使用促使真正的贝叶斯论者称之为傻瓜贝叶斯模型。” (zh) In statistics, naive Bayes classifiers are a family of simple "probabilistic classifiers" based on applying Bayes' theorem with strong (naive) independence assumptions between the features (see Bayes classifier). They are among the simplest Bayesian network models, but coupled with kernel density estimation, they can achieve high accuracy levels. (en) La classification naïve bayésienne est un type de classification bayésienne probabiliste simple basée sur le théorème de Bayes avec une forte indépendance (dite naïve) des hypothèses. Elle met en œuvre un classifieur bayésien naïf, ou classifieur naïf de Bayes, appartenant à la famille des classifieurs linéaires. Un terme plus approprié pour le modèle probabiliste sous-jacent pourrait être « modèle à caractéristiques statistiquement indépendantes ». (fr) Naiwny klasyfikator bayesowski, naiwny klasyfikator Bayesa – prosty probabilistyczny. Naiwne klasyfikatory bayesowskie są oparte na założeniu o wzajemnej niezależności predyktorów (zmiennych niezależnych). Często nie mają one żadnego związku z rzeczywistością i właśnie z tego powodu nazywa się je naiwnymi. Bardziej opisowe jest określenie – „model cech niezależnych”. Ponadto model prawdopodobieństwa można wyprowadzić korzystając z twierdzenia Bayesa. (pl) Наи́вный ба́йесовский классифика́тор — простой вероятностный классификатор, основанный на применении теоремы Байеса со строгими (наивными) предположениями о независимости. В зависимости от точной природы вероятностной модели, наивные байесовские классификаторы могут обучаться очень эффективно. Во многих практических приложениях для оценки параметров для наивных байесовых моделей используют метод максимального правдоподобия; другими словами, можно работать с наивной байесовской моделью, не веря в байесовскую вероятность и не используя байесовские методы. (ru) Наївний баєсів класифікатор — ймовірнісний класифікатор, що використовує теорему Баєса для визначення ймовірності приналежності спостереження (елемента вибірки) до одного з класів при припущенні (наївному) незалежності змінних. Тобто, якщо на основі значень змінних можна однозначно визначити, до якого класу належить спостереження, баєсів класифікатор повідомить ймовірність приналежності до цього класу. (uk)
rdfs:label المصنف بايز ساذج (ar) Classificador Bayes primari (ca) Clasificador bayesiano ingenuo (es) Naive Bayes sailkatzaile (eu) Naive Bayes classifier (in) Classification naïve bayésienne (fr) 나이브 베이즈 분류 (ko) 単純ベイズ分類器 (ja) Naive Bayes classifier (en) Naiwny klasyfikator bayesowski (pl) Наивный байесовский классификатор (ru) Naiv bayesiansk klassificerare (sv) 朴素贝叶斯分类器 (zh) Наївний баєсів класифікатор (uk)
owl:sameAs freebase:Naive Bayes classifier yago-res:Naive Bayes classifier wikidata:Naive Bayes classifier dbpedia-ar:Naive Bayes classifier dbpedia-ca:Naive Bayes classifier http://ckb.dbpedia.org/resource/پۆلێنکەری_بەیزی_ساویلکە dbpedia-da:Naive Bayes classifier dbpedia-es:Naive Bayes classifier dbpedia-eu:Naive Bayes classifier dbpedia-fa:Naive Bayes classifier dbpedia-fr:Naive Bayes classifier dbpedia-he:Naive Bayes classifier dbpedia-id:Naive Bayes classifier dbpedia-ja:Naive Bayes classifier dbpedia-ko:Naive Bayes classifier dbpedia-mk:Naive Bayes classifier dbpedia-pl:Naive Bayes classifier dbpedia-ro:Naive Bayes classifier dbpedia-ru:Naive Bayes classifier http://su.dbpedia.org/resource/Klasifikasi_naif_Bayésian dbpedia-sv:Naive Bayes classifier dbpedia-tr:Naive Bayes classifier dbpedia-uk:Naive Bayes classifier dbpedia-zh:Naive Bayes classifier https://global.dbpedia.org/id/4ycAS
prov:wasDerivedFrom wikipedia-en:Naive_Bayes_classifier?oldid=1118900065&ns=0
foaf:depiction wiki-commons:Special:FilePath/ROC_curves.svg
foaf:isPrimaryTopicOf wikipedia-en:Naive_Bayes_classifier
is dbo:wikiPageDisambiguates of dbr:NB dbr:NBC_(disambiguation) dbr:Naive_(disambiguation)
is dbo:wikiPageRedirects of dbr:Naive_Bayes dbr:Gaussian_Naive_Bayes dbr:Gaussian_naive_Bayes dbr:Naive_bayes_classifier dbr:Naïve_Bayes dbr:Naïve_Bayes_classifier dbr:Multinomial_Naive_Bayes dbr:Bayesian_Classifiers dbr:Bayesian_classification dbr:Baysian_classifier dbr:Naïve_Bayesian_classification dbr:Naïve_Bayesian_classifier dbr:Idiot's_Bayes dbr:Idiot_Bayes dbr:Idiot_Bayes_Model dbr:Naive-Bayes dbr:Naive_Bayesian_Classification dbr:Naive_Bayesian_classification dbr:Naive_Bayesian_classifier dbr:Naive_bayes dbr:Naive_bayes_model
is dbo:wikiPageWikiLink of dbr:Bayes_classifier dbr:Bayes_error_rate dbr:Bayesian_programming dbr:Probabilistic_classification dbr:Multinomial_logistic_regression dbr:NB dbr:NBC_(disambiguation) dbr:Bayesian_network dbr:Vertica dbr:Deterioration_modeling dbr:Inductive_bias dbr:Internet_traffic dbr:GNB dbr:Naive_(disambiguation) dbr:Online_machine_learning dbr:Generative_model dbr:Glossary_of_artificial_intelligence dbr:Mlpack dbr:MyDLP dbr:Naive_Bayes dbr:Contextual_image_classification dbr:Apache_Spark dbr:Skype dbr:Skype_protocol dbr:Computer-aided_diagnosis dbr:Email_filtering dbr:Feature_selection dbr:Hough_transform dbr:Kernel_density_estimation dbr:Gaussian_Naive_Bayes dbr:Gaussian_naive_Bayes dbr:Pattern_recognition dbr:Machine_learning_in_bioinformatics dbr:Predictive_Model_Markup_Language dbr:MutationTaster dbr:Activity_recognition dbr:Additive_smoothing dbr:Document_classification dbr:Linear_classifier dbr:Proteome_Analyst dbr:Bayesian_classifier dbr:Discriminative_model dbr:Graphical_model dbr:KH_Coder dbr:Random_forest dbr:Artificial_intelligence dbr:Binary_Independence_Model dbr:Author_profiling dbr:Averaged_one-dependence_estimators dbr:Boosting_(machine_learning) dbr:Platt_scaling dbr:Softmax_function dbr:Naive_bayes_classifier dbr:IBM_Db2 dbr:I_Write_Like dbr:Naïve_Bayes dbr:Naïve_Bayes_classifier dbr:OpenCV dbr:Recommender_system dbr:Multifactor_dimensionality_reduction dbr:Sentiment_analysis dbr:Word-sense_disambiguation dbr:Factorial_code dbr:List_of_statistics_articles dbr:List_of_things_named_after_Thomas_Bayes dbr:Multinomial_Naive_Bayes dbr:Training,_validation,_and_test_data_sets dbr:Naive_Bayes_spam_filtering dbr:Web_query_classification dbr:WinnowTag dbr:Outline_of_artificial_intelligence dbr:Outline_of_machine_learning dbr:POPFile dbr:Supervised_learning dbr:Bayesian_Classifiers dbr:Bayesian_classification dbr:Baysian_classifier dbr:Naïve_Bayesian_classification dbr:Naïve_Bayesian_classifier dbr:Idiot's_Bayes dbr:Idiot_Bayes dbr:Idiot_Bayes_Model dbr:Naive-Bayes dbr:Naive_Bayesian_Classification dbr:Naive_Bayesian_classification dbr:Naive_Bayesian_classifier dbr:Naive_bayes dbr:Naive_bayes_model
is foaf:primaryTopic of wikipedia-en:Naive_Bayes_classifier