Support vector machine (original) (raw)
Euskarri bektoredun makinak (ingelesez, support-vector machine, SVM) sailkapenerako eta erregresiorako erabiltzen den algoritmo sorta da. Jatorriz , sailkapen bitar eta erabiltzen den arren, beste aukera asko eskaintzen dutela frogatu izan da.
Property | Value |
---|---|
dbo:abstract | تُعدّ خوارزمية آلة المتجهات الداعمة (أو شبكة المتجهات الداعمة) واحدة من خوارزميات تعلّم الآلة المراقب (تكون هنا البيانات مصنفة أو مرمزة)، وتُستخدم هذه الخوارزمية لتحليل البيانات من أجل تصنيفها تصنيفًا إحصائيًا أو تحليل الإنحدارلها. تبدأ الخوارزمية إنطلاقًا من البيانات المصنّفة (المرمزة)، وغالبًا ما يكون الترميز باستخدام صفين فقط، فإما أن تنتمي البيانات إلى الصف الأول (س) أو إلى الصف الثاني (ع). بعد ذلك تبدأ عملية التدريب التي تهدف إلى إيجاد إطار الخطي (مستوي مثلًا) يقوم بفصل البيانات بأفضل طريقة ممكنة، بحيث تكون البيانات (س) على طرف المستوي والبيانات (ع) على الطرف الآخر. بمعنى آخر، عندما تُرسم هذه البيانات على محاور الخصائص، تعمل الخوارزمية على إيجاد أفضل إطار الخطي للفصل بين خصائص كلٍ من الصفيّن (س) و (ع) بحيث تكون المسافة بينهما أكبر ما يُمكن. ثم تتم عملية التدريب بحيث يتم تصنيف جزء آخر من البيانات تبعًا للإطار الخطي الذي وُجد في عملية التدريب السابقة. بجانب قدرة خوارزمية آلة المتجهات الداعمة على إيجاد الأُطر الخطيّة، فهي تتمكن أيضًا من إيجاد أُطرغير خطية عن طريق تطبيق خدعة المصفوفة. تُعد هذه الخوارزمية من أشهر طرق التصنيف الآلي لتعلم الآلة، وهي تعتمد على إيجاد إطار خطي (منحني أو مستوي فائق)، بحيث يفصل البيانات المدخلة عن بعضها البعض، ويتميز بإستخدامه في تصنيف المسائل ذات الصفوف (الفئات) الثنائية: مثلًا نُعطي (1) للعينات الإيجابية و (-1) للعينات السلبية. على سبيل المثال: لتصنيف عينات بيانات مرضى تخص مرض الإيدز، إذا كان المخرج (1) يعني أن الشخص مصاب بمرض الإيدز، وإذا كان المخرج (-1) يعني أن الشخص غير مصاب بمرض الإيدز. (ar) Una màquina de vector de suport (SVM o support-vector machines en anglès) és un concepte al món estadístic i de les ciències de la computació sobre un conjunt d'algorismes que són capaços d'analitzar dades i reconèixer patrons mitjançant l'ús de mètodes d'aprenentatge supervisat. Aquests mètodes són utilitzats principalment en problemes de classificació o d'anàlisi de la regressió. Una màquina de vectors agafa com a entrada un set de dades i prediu, per cadascuna d'aquestes entrades a quina de les dues possibles classes pertany. Mitjançant l'entrenament amb dades d'entrada prèviament classificades, s'estableix un model que separa les dues classes entrants. Aquest model N-dimensional estableix una frontera entre les dues tipologies establertes, aquesta se situa en el punt en el qual la diferència entre classes sigui el més gran possible i el marge d'error sigui zero (dataset separable) o mínim (dataset no separable).S'anomenen vectors de suport als punts que conformen les dues línies paral·leles a l'hiperplà, essent aquesta distància la major possible (marge). (ca) Support vector machines (SVM) neboli metoda podpůrných vektorů je metoda strojového učení s učitelem, sloužící zejména pro klasifikaci a také pro regresní analýzu. Na jejím vynalezení se podílel zejména . Základem metody SVM je lineární klasifikátor do dvou tříd. Cílem úlohy je nalézt nadrovinu, která optimálně rozděluje tak, že trénovací data náležející odlišným třídám leží v opačných poloprostorech. nadrovina je taková, že hodnota minima vzdáleností bodů od roviny je co největší. Jinými slovy, okolo nadroviny je na obě strany co nejširší pruh bez bodů . Na popis nadroviny stačí pouze body ležící na okraji tohoto pásma a těch je obvykle málo - tyto body se nazývají podpůrné vektory (angl. support vectors) a odtud název metody. Důležitou součástí techniky Support vector machines je (angl. kernel transformation) prostoru příznaků dat do prostoru transformovaných příznaků typicky vyšší dimenze. Tato jádrová transformace umožňuje převést původně lineárně neseparovatelnou úlohu na úlohu lineárně separovatelnou, na kterou lze dále aplikovat optimalizační algoritmus pro nalezení rozdělující nadroviny. Trik je v tom, že nadrovina je popsána a při výpočtech je použitý pouze skalární součin, a skalární součin transformovaných dat ve vysokorozměrném prostoru se nepočítá explicitně, ale počítá se K(x, x1), tj. hodnota K na datech v původním prostoru parametrů. Používají se různé kernelové transformace. Intuitivně, vyjadřují podobnost dat, tj. svých dvou vstupních argumentů. Výhodou této metody (a jiných metod založených na jádrové transformaci) je, že transformace se dá definovat pro různé typy objektů, nejen body v Rn. Např. pro grafy, stromy, posloupnosti DNA atd. (cs) Eine Support Vector Machine [səˈpɔːt ˈvektə məˈʃiːn] (SVM, die Übersetzung aus dem Englischen, „Stützvektormaschine“ oder Stützvektormethode, ist nicht gebräuchlich) dient als Klassifikator (vgl. Klassifizierung) und Regressor (vgl. Regressionsanalyse). Eine Support Vector Machine unterteilt eine Menge von Objekten so in Klassen, dass um die Klassengrenzen herum ein möglichst breiter Bereich frei von Objekten bleibt; sie ist ein sogenannter Large Margin Classifier (dt. „Breiter-Rand-Klassifikator“). Support Vector Machines sind keine Maschinen im herkömmlichen Sinne, bestehen also nicht aus greifbaren Bauteilen. Es handelt sich um ein rein mathematisches Verfahren der Mustererkennung, das in Computerprogrammen umgesetzt wird. Der Namensteil machine weist dementsprechend nicht auf eine Maschine hin, sondern auf das Herkunftsgebiet der Support Vector Machines, das maschinelle Lernen. (de) Euskarri bektoredun makinak (ingelesez, support-vector machine, SVM) sailkapenerako eta erregresiorako erabiltzen den algoritmo sorta da. Jatorriz , sailkapen bitar eta erabiltzen den arren, beste aukera asko eskaintzen dutela frogatu izan da. (eu) Las máquinas de vectores de soporte o máquinas de vector soporte (del inglés support-vector machines, SVM) son un conjunto de algoritmos de aprendizaje supervisado desarrollados por Vladimir Vapnik y su equipo en los laboratorios de AT&T Bell. Estos métodos están propiamente relacionados con problemas de clasificación y regresión. Dado un conjunto de ejemplos de entrenamiento (de muestras) podemos etiquetar las clases y entrenar una SVM para construir un modelo que prediga la clase de una nueva muestra. Intuitivamente, una SVM es un modelo que representa a los puntos de muestra en el espacio, separando las clases a 2 espacios lo más amplios posibles mediante un hiperplano de separación definido como el vector entre los 2 puntos, de las 2 clases, más cercanos al que se llama vector soporte. Cuando las nuevas muestras se ponen en correspondencia con dicho modelo, en función de los espacios a los que pertenezcan, pueden ser clasificadas a una o la otra clase. Más formalmente, una SVM construye un hiperplano o conjunto de hiperplanos en un espacio de dimensionalidad muy alta (o incluso infinita) que puede ser utilizado en problemas de clasificación o regresión. Una buena separación entre las clases permitirá una clasificación correcta. (es) Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais support-vector machine, SVM) sont un ensemble de techniques d'apprentissage supervisé destinées à résoudre des problèmes de discrimination et de régression. Les SVM sont une généralisation des classifieurs linéaires. Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique. Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance…). Selon les données, la performance des machines à vecteurs de support est de même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens[réf. souhaitée]. (fr) Pada dasarnya, support-vector machine (SVM) adalah sebuah algoritma klasifikasi untuk data linear dan non-linear. SVM menggunakan mapping non-linear untuk mentransformasikan training data awal ke dimensi yang lebih tinggi. (in) In machine learning, support vector machines (SVMs, also support vector networks) are supervised learning models with associated learning algorithms that analyze data for classification and regression analysis. Developed at AT&T Bell Laboratories by Vladimir Vapnik with colleagues (Boser et al., 1992, Guyon et al., 1993, Cortes and Vapnik, 1995, Vapnik et al., 1997) SVMs are one of the most robust prediction methods, being based on statistical learning frameworks or VC theory proposed by Vapnik (1982, 1995) and Chervonenkis (1974). Given a set of training examples, each marked as belonging to one of two categories, an SVM training algorithm builds a model that assigns new examples to one category or the other, making it a non-probabilistic binary linear classifier (although methods such as Platt scaling exist to use SVM in a probabilistic classification setting). SVM maps training examples to points in space so as to maximise the width of the gap between the two categories. New examples are then mapped into that same space and predicted to belong to a category based on which side of the gap they fall. In addition to performing linear classification, SVMs can efficiently perform a non-linear classification using what is called the kernel trick, implicitly mapping their inputs into high-dimensional feature spaces. When data are unlabelled, supervised learning is not possible, and an unsupervised learning approach is required, which attempts to find natural clustering of the data to groups, and then map new data to these formed groups. The support vector clustering algorithm, created by Hava Siegelmann and Vladimir Vapnik, applies the statistics of support vectors, developed in the support vector machines algorithm, to categorize unlabeled data. (en) サポートベクターマシン(英: support-vector machine, SVM)は、教師あり学習を用いるパターン認識モデルの1つである。分類や回帰へ適用できる。1963年にとAlexey Ya. Chervonenkisが線形サポートベクターマシンを発表し、1992年にBernhard E. Boser、Isabelle M. Guyon、ウラジミール・ヴァプニクが非線形へと拡張した。 サポートベクターマシンは、現在知られている手法の中でも認識性能が優れた学習モデルの1つである。サポートベクターマシンが優れた認識性能を発揮することができる理由は、未学習データに対して高い識別性能を得るための工夫があるためである。 (ja) 서포트 벡터 머신(support vector machine, SVM)은 기계 학습의 분야 중 하나로 패턴 인식, 자료 분석을 위한 지도 학습 모델이며, 주로 분류와 회귀 분석을 위해 사용한다. 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, SVM 알고리즘은 주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지 판단하는 비확률적 이진 선형 분류 모델을 만든다. 만들어진 분류 모델은 데이터가 사상된 공간에서 경계로 표현되는데 SVM 알고리즘은 그 중 가장 큰 폭을 가진 경계를 찾는 알고리즘이다. SVM은 선형 분류와 더불어 비선형 분류에서도 사용될 수 있다. 비선형 분류를 하기 위해서 주어진 데이터를 고차원 특징 공간으로 사상하는 작업이 필요한데, 이를 효율적으로 하기 위해 을 사용하기도 한다. (ko) Le macchine a vettori di supporto (SVM, dall'inglese support-vector machines) sono dei modelli di apprendimento supervisionato associati ad algoritmi di apprendimento per la regressione e la classificazione. Dato un insieme di esempi per l'addestramento, ognuno dei quali etichettato con la classe di appartenenza fra le due possibili classi, un algoritmo di addestramento per le SVM costruisce un modello che assegna i nuovi esempi a una delle due classi, ottenendo quindi un classificatore lineare binario non probabilistico. Un modello SVM è una rappresentazione degli esempi come punti nello spazio, mappati in modo tale che gli esempi appartenenti alle due diverse categorie siano chiaramente separati da uno spazio il più possibile ampio. I nuovi esempi sono quindi mappati nello stesso spazio e la predizione della categoria alla quale appartengono viene fatta sulla base del lato nel quale ricade. Oltre alla classificazione lineare è possibile fare uso delle SVM per svolgere efficacemente la classificazione non lineare utilizzando il metodo kernel, mappando implicitamente i loro ingressi in uno spazio delle caratteristiche multi-dimensionale. Quando gli esempi non sono etichettati è impossibile addestrare in modo supervisionato e si rende necessario l'apprendimento non supervisionato: questo approccio cerca d'identificare i naturali gruppi in cui si raggruppano i dati, mappando successivamente i nuovi dati nei gruppi ottenuti. L'algoritmo di raggruppamento a vettori di supporto, creato da Hava Siegelmann e Vladimir N. Vapnik, applica le statistiche dei vettori di supporto, sviluppate negli algoritmi delle SVM, per classificare dati non etichettati, ed è uno degli algoritmi di raggruppamento maggiormente utilizzato nelle applicazioni industriali. (it) Support vector machine (SVM) is een algoritme op het gebied van gecontroleerd machinaal leren. De methode is gebaseerd op de theorie van statistisch leren van de Russen Vapnik en Chervonenkis. Ze heeft vele uiteenlopende toepassingen in classificatie en regressie-analyse. (nl) Uma máquina de vetores de suporte (SVM, do inglês: support-vector machine) é um conceito na ciência da computação para um conjunto de métodos de aprendizado supervisionado que analisam os dados e reconhecem padrões, usado para classificação e análise de regressão. O SVM padrão toma como entrada um conjunto de dados e prediz, para cada entrada dada, qual de duas possíveis classes a entrada faz parte, o que faz do SVM um classificador linear binário não probabilístico. Dados um conjunto de exemplos de treinamento, cada um marcado como pertencente a uma de duas categorias, um algoritmo de treinamento do SVM constrói um modelo que atribui novos exemplos a uma categoria ou outra. Um modelo SVM é uma representação de exemplos como pontos no espaço, mapeados de maneira que os exemplos de cada categoria sejam divididos por um espaço claro que seja tão amplo quanto possível. Os novos exemplos são então mapeados no mesmo espaço e preditos como pertencentes a uma categoria baseados em qual o lado do espaço eles são colocados. Em outras palavras, o que uma SVM faz é encontrar uma linha de separação, mais comumente chamada de hiperplano entre dados de duas classes. Essa linha busca maximizar a distância entre os pontos mais próximos em relação a cada uma das classes, ver imagem: Essa distância entre o hiperplano e o primeiro ponto de cada classe costuma ser chamada de margem. A SVM coloca em primeiro lugar a classificação das classes, definindo assim cada ponto pertencente a cada uma das classes, e em seguida maximiza a margem. Ou seja, ela primeiro classifica as classes corretamente e depois em função dessa restrição define a distância entre as margens. Algumas características: * Em caso de outlier a SVM busca a melhor forma possível de classificação e, se necessário, desconsidera o outlier; * Funciona muito bem em domínios complicados, em que existe uma clara margem de separação; * Não funciona bem em conjuntos de dados muito grandes, pois exige inversão de matriz - aumentando a complexidade computacional com até o cubo do volume de dados; * Não funciona bem em conjunto de dados com grande quantidade de ruídos; * Se as classes estiverem muito sobrepostas deve-se utilizar apenas evidências independentes (devido ao fato de não ser muito bom com dados com muitos ruídos); (pt) Метод опорных векторов (англ. SVM, support vector machine) — набор схожих алгоритмов обучения с учителем, использующихся для задач классификации и регрессионного анализа. Принадлежит семейству линейных классификаторов и может также рассматриваться как частный случай регуляризации по Тихонову. Особым свойством метода опорных векторов является непрерывное уменьшение эмпирической ошибки классификации и увеличение зазора, поэтому метод также известен как метод классификатора с максимальным зазором. Основная идея метода — перевод исходных векторов в пространство более высокой размерности и поиск разделяющей гиперплоскости с наибольшим зазором в этом пространстве. Две параллельных гиперплоскости строятся по обеим сторонам гиперплоскости, разделяющей классы. Разделяющей гиперплоскостью будет гиперплоскость, создающая наибольшее расстояние до двух параллельных гиперплоскостей. Алгоритм основан на допущении, что чем больше разница или расстояние между этими параллельными гиперплоскостями, тем меньше будет средняя ошибка классификатора. (ru) Maszyna wektorów nośnych, maszyna wektorów wspierających, maszyna wektorów podpierających – abstrakcyjny koncept maszyny, która działa jak klasyfikator, a której nauka ma na celu wyznaczenie hiperpłaszczyzny rozdzielającej z maksymalnym marginesem przykłady należące do dwóch klas. Często jest stosowana niejawnie w procesie rozpoznawania obrazów. Maszyna wektorów nośnych korzystająca z jądra radialnej funkcji bazowej jest w stanie klasyfikować nierozdzielne liniowo klasy. W przypadku wystąpienia więcej niż jednej klasy maszynę wektorów nośnych zazwyczaj uczy się metodą one-versus-rest. (pl) En stödvektormaskin (eng. support-vector machine) är en typ av statistisk klassificerare, närmare bestämt en generaliserad linjär klassificerare. Den linjära formuleringen av algoritmen introducerades av 1963. Metoden kan även användas för regression. Stödvektormaskiner betraktas som robusta och har använts i många praktiska tillämpningar, till exempel för optisk teckenigenkänning samt ett stort antal olika områden inom språkteknologin och även i datorseende. De kan hantera relativt stora träningsmängder och har metoder för att förhindra överanpassning. (sv) 在机器学习中,支援向量机(英語:support vector machine,常简称為SVM,又名支援向量网络)是在分类与迴歸分析中分析数据的監督式學習模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法建立一个将新的实例分配给两个类别之一的模型,使其成为非概率线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。 除了进行线性分类之外,SVM还可以使用所谓的有效地进行非线性分类,将其输入隐式映射到高维特征空间中。 当数据未被标记时,不能进行监督式学习,需要用非監督式學習,它会尝试找出数据到簇的自然聚类,并将新数据映射到这些已形成的簇。将支援向量机改进的聚类算法被称为支援向量聚类,当数据未被标记或者仅一些数据被标记时,支援向量聚类经常在工业应用中用作分类步骤的预处理。 (zh) В машинному навчанні ме́тод опо́рних векторі́в — це метод аналізу даних для класифікації та регресійного аналізу за допомогою моделей з керованим навчанням з пов'язаними алгоритмами навчання, які називаються опо́рно-ве́кторними маши́нами (ОВМ, англ. support vector machines, SVM, також опо́рно-ве́кторними мере́жами, англ. support vector networks). Для заданого набору тренувальних зразків, кожен із яких відмічено як належний до однієї чи іншої з двох категорій, алгоритм тренування ОВМ будує модель, яка відносить нові зразки до однієї чи іншої категорії, роблячи це неймовірнісним бінарним лінійним класифікатором. Модель ОВМ є представленням зразків як точок у просторі, відображених таким чином, що зразки з окремих категорій розділено чистою прогалиною, яка є щонайширшою. Нові зразки тоді відображуються до цього ж простору, й робиться передбачення про їхню належність до категорії на основі того, на який бік прогалини вони потрапляють. На додачу до виконання лінійної класифікації, ОВМ можуть ефективно виконувати нелінійну класифікацію при застосуванні так званого ядрового трюку, неявно відображуючи свої входи до просторів ознак високої вимірності. Коли дані не є міченими, кероване навчання є неможливим, і виникає необхідність у спонтанному навчанні, яке намагається знайти природне кластерування даних на групи, а потім відображувати нові дані на ці сформовані групи. Алгоритм кластерування, який забезпечує вдосконалення опорно-векторним машинам, називається опо́рно-ве́кторним кластерува́нням (англ. support vector clustering), і часто використовується в промислових застосуваннях, коли дані або не є міченими, або коли лише деякі дані є міченими як попередня обробка перед проходом класифікації. (uk) |
dbo:thumbnail | wiki-commons:Special:FilePath/Svm_separating_hyperplanes_(SVG).svg?width=300 |
dbo:wikiPageExternalLink | http://www.csie.ntu.edu.tw/~cjlin/libsvm/ http://kdd.org/exploration_files/bennett.pdf http://www.ivanciuc.org/Files/Reprint/Ivanciuc_SVM_CCR_2007_23_291.pdf http://support.sas.com/documentation/cdl/en/whatsnew/64209/HTML/default/viewer.htm%23emdocwhatsnew71.htm http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Seventh%20Printing.pdf%23page=345 http://paul.rutgers.edu/~dfradkin/papers/svm.pdf https://mloss.org/software/view/409/ http://image.diku.dk/shark/ http://svmlight.joachims.org https://arxiv.org/search/stat%3Fsearchtype=author&query=Wenzel%2C+F https://cran.r-project.org/package=kernlab http://cs.stanford.edu/people/karpathy/svmjs/demo/ http://www.csie.ntu.edu.tw/~cjlin/liblinear/ |
dbo:wikiPageID | 65309 (xsd:integer) |
dbo:wikiPageLength | 62950 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1116926893 (xsd:integer) |
dbo:wikiPageWikiLink | dbr:Bayesian_optimization dbr:Bayesian_probability dbr:Probabilistic_classification dbr:Scikit-learn dbr:Kernel_(integral_operator) dbr:Algorithm dbr:Hyperbolic_tangent dbr:Perceptron dbr:Permutation_test dbr:Vladimir_Vapnik dbr:Interior-point_method dbr:AT&T_Bell_Laboratories dbr:Shallow_semantic_parsing dbc:Classification_algorithms dbr:Coordinate_descent dbr:Corinna_Cortes dbr:Maximum-margin_hyperplane dbr:Generalization_error dbr:Normal_(geometry) dbr:Alexey_Chervonenkis dbr:Gradient_descent dbr:Multiclass_classification dbr:Convex_function dbr:Cross-validation_(statistics) dbr:Subderivative dbr:MATLAB dbr:Machine_learning dbr:Shogun_(toolbox) dbr:Sign_function dbr:Cluster_analysis dbr:Empirical_risk_minimization dbc:Support_vector_machines dbr:Kernel_method dbr:Predictive_analytics dbr:Data_augmentation dbr:Data_point dbr:Weka_(machine_learning) dbr:Distance_from_a_point_to_a_plane dbr:Duality_(optimization) dbr:Feature_space dbr:Feature_vector dbr:Karush–Kuhn–Tucker_conditions dbr:Least-squares_support_vector_machine dbr:Linear_classifier dbr:Linear_separability dbr:Logistic_regression dbr:Rate_of_convergence dbr:Error_correcting_code dbr:Parallelization dbr:Graphical_model dbr:Handwriting_recognition dbr:Stochastic_gradient_descent dbr:Quadratic_programming dbr:Regression_analysis dbr:Relevance_vector_machine dbr:Hava_Siegelmann dbr:Hinge_loss dbr:Isabelle_Guyon dbr:JavaScript dbr:Hyperparameter_(machine_learning) dbr:Hyperplane dbr:Hypothesis dbr:Margin_classifier dbr:Winnow_(algorithm) dbr:LIBSVM dbr:Big_data dbr:Binary_classification dbr:Synthetic-aperture_radar dbr:Hesse_normal_form dbr:Homogeneous_polynomial dbr:Tikhonov_regularization dbr:Transduction_(machine_learning) dbr:Directed_acyclic_graph dbr:Dot_product dbc:Statistical_classification dbr:Margin_(machine_learning) dbr:Platt_scaling dbr:Polynomial_kernel dbr:Positive-definite_kernel dbr:Posterior_predictive_distribution dbr:Space_mapping dbr:Image_segmentation dbr:Newton's_method dbr:OpenCV dbr:Radial_basis_function_kernel dbr:Real_number dbr:Loss_function dbr:Loss_functions_for_classification dbr:Semi-supervised_learning dbr:Sequential_minimal_optimization dbr:Sigmoid_function dbr:Statistical_classification dbr:In_situ_adaptive_tabulation dbr:Kernel_trick dbr:Unsupervised_learning dbr:Subgradient_method dbr:Fisher_kernel dbr:Normed_vector_space dbr:Regularization_perspectives_on_support_vector_machines dbr:Supervised_learning dbr:Linearly_separable dbr:Text_categorization dbr:Class_membership_probabilities dbr:Grid_search dbr:Kernel_machines dbr:Regularized_least-squares dbr:Image_classification dbr:VC_theory dbr:Vladimir_N._Vapnik dbr:Binary_classifier dbr:Multiclass_problem dbr:Structured_SVM dbr:File:Kernel_trick_idea.svg dbr:File:Svm_separating_hyperplanes_(SVG).svg dbr:File:Kernel_Machine.svg dbr:File:SVM_margin.png dbr:File:Svr_epsilons_demo.svg dbr:Bernhard_Boser |
dbp:em | 1.500000 (xsd:double) |
dbp:text | "Minimize subject to for ." (en) |
dbp:wikiPageUsesTemplate | dbt:Authority_control dbt:Block_indent dbt:Citation_needed dbt:Cite_book dbt:Cite_journal dbt:Cn dbt:Main dbt:Math dbt:NumBlk dbt:Reflist dbt:Short_description dbt:EquationRef dbt:EquationNote dbt:Machine_learning dbt:Citation_not_found |
dct:subject | dbc:Classification_algorithms dbc:Support_vector_machines dbc:Statistical_classification |
gold:hypernym | dbr:Models |
rdf:type | owl:Thing dbo:Person yago:WikicatClassificationAlgorithms yago:WikicatNeuralNetworks yago:Abstraction100002137 yago:Act100030358 yago:Activity100407535 yago:Algorithm105847438 yago:Communication100033020 yago:ComputerArchitecture106725249 yago:Description106724763 yago:Event100029378 yago:Message106598915 yago:NeuralNetwork106725467 yago:Procedure101023820 yago:PsychologicalFeature100023100 yago:YagoPermanentlyLocatedEntity yago:Rule105846932 yago:Specification106725067 yago:Statement106722453 |
rdfs:comment | Euskarri bektoredun makinak (ingelesez, support-vector machine, SVM) sailkapenerako eta erregresiorako erabiltzen den algoritmo sorta da. Jatorriz , sailkapen bitar eta erabiltzen den arren, beste aukera asko eskaintzen dutela frogatu izan da. (eu) Pada dasarnya, support-vector machine (SVM) adalah sebuah algoritma klasifikasi untuk data linear dan non-linear. SVM menggunakan mapping non-linear untuk mentransformasikan training data awal ke dimensi yang lebih tinggi. (in) サポートベクターマシン(英: support-vector machine, SVM)は、教師あり学習を用いるパターン認識モデルの1つである。分類や回帰へ適用できる。1963年にとAlexey Ya. Chervonenkisが線形サポートベクターマシンを発表し、1992年にBernhard E. Boser、Isabelle M. Guyon、ウラジミール・ヴァプニクが非線形へと拡張した。 サポートベクターマシンは、現在知られている手法の中でも認識性能が優れた学習モデルの1つである。サポートベクターマシンが優れた認識性能を発揮することができる理由は、未学習データに対して高い識別性能を得るための工夫があるためである。 (ja) 서포트 벡터 머신(support vector machine, SVM)은 기계 학습의 분야 중 하나로 패턴 인식, 자료 분석을 위한 지도 학습 모델이며, 주로 분류와 회귀 분석을 위해 사용한다. 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, SVM 알고리즘은 주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지 판단하는 비확률적 이진 선형 분류 모델을 만든다. 만들어진 분류 모델은 데이터가 사상된 공간에서 경계로 표현되는데 SVM 알고리즘은 그 중 가장 큰 폭을 가진 경계를 찾는 알고리즘이다. SVM은 선형 분류와 더불어 비선형 분류에서도 사용될 수 있다. 비선형 분류를 하기 위해서 주어진 데이터를 고차원 특징 공간으로 사상하는 작업이 필요한데, 이를 효율적으로 하기 위해 을 사용하기도 한다. (ko) Support vector machine (SVM) is een algoritme op het gebied van gecontroleerd machinaal leren. De methode is gebaseerd op de theorie van statistisch leren van de Russen Vapnik en Chervonenkis. Ze heeft vele uiteenlopende toepassingen in classificatie en regressie-analyse. (nl) Maszyna wektorów nośnych, maszyna wektorów wspierających, maszyna wektorów podpierających – abstrakcyjny koncept maszyny, która działa jak klasyfikator, a której nauka ma na celu wyznaczenie hiperpłaszczyzny rozdzielającej z maksymalnym marginesem przykłady należące do dwóch klas. Często jest stosowana niejawnie w procesie rozpoznawania obrazów. Maszyna wektorów nośnych korzystająca z jądra radialnej funkcji bazowej jest w stanie klasyfikować nierozdzielne liniowo klasy. W przypadku wystąpienia więcej niż jednej klasy maszynę wektorów nośnych zazwyczaj uczy się metodą one-versus-rest. (pl) En stödvektormaskin (eng. support-vector machine) är en typ av statistisk klassificerare, närmare bestämt en generaliserad linjär klassificerare. Den linjära formuleringen av algoritmen introducerades av 1963. Metoden kan även användas för regression. Stödvektormaskiner betraktas som robusta och har använts i många praktiska tillämpningar, till exempel för optisk teckenigenkänning samt ett stort antal olika områden inom språkteknologin och även i datorseende. De kan hantera relativt stora träningsmängder och har metoder för att förhindra överanpassning. (sv) 在机器学习中,支援向量机(英語:support vector machine,常简称為SVM,又名支援向量网络)是在分类与迴歸分析中分析数据的監督式學習模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法建立一个将新的实例分配给两个类别之一的模型,使其成为非概率线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。 除了进行线性分类之外,SVM还可以使用所谓的有效地进行非线性分类,将其输入隐式映射到高维特征空间中。 当数据未被标记时,不能进行监督式学习,需要用非監督式學習,它会尝试找出数据到簇的自然聚类,并将新数据映射到这些已形成的簇。将支援向量机改进的聚类算法被称为支援向量聚类,当数据未被标记或者仅一些数据被标记时,支援向量聚类经常在工业应用中用作分类步骤的预处理。 (zh) تُعدّ خوارزمية آلة المتجهات الداعمة (أو شبكة المتجهات الداعمة) واحدة من خوارزميات تعلّم الآلة المراقب (تكون هنا البيانات مصنفة أو مرمزة)، وتُستخدم هذه الخوارزمية لتحليل البيانات من أجل تصنيفها تصنيفًا إحصائيًا أو تحليل الإنحدارلها. تبدأ الخوارزمية إنطلاقًا من البيانات المصنّفة (المرمزة)، وغالبًا ما يكون الترميز باستخدام صفين فقط، فإما أن تنتمي البيانات إلى الصف الأول (س) أو إلى الصف الثاني (ع). بعد ذلك تبدأ عملية التدريب التي تهدف إلى إيجاد إطار الخطي (مستوي مثلًا) يقوم بفصل البيانات بأفضل طريقة ممكنة، بحيث تكون البيانات (س) على طرف المستوي والبيانات (ع) على الطرف الآخر. (ar) Una màquina de vector de suport (SVM o support-vector machines en anglès) és un concepte al món estadístic i de les ciències de la computació sobre un conjunt d'algorismes que són capaços d'analitzar dades i reconèixer patrons mitjançant l'ús de mètodes d'aprenentatge supervisat. Aquests mètodes són utilitzats principalment en problemes de classificació o d'anàlisi de la regressió. Una màquina de vectors agafa com a entrada un set de dades i prediu, per cadascuna d'aquestes entrades a quina de les dues possibles classes pertany. Mitjançant l'entrenament amb dades d'entrada prèviament classificades, s'estableix un model que separa les dues classes entrants. Aquest model N-dimensional estableix una frontera entre les dues tipologies establertes, aquesta se situa en el punt en el qual la dife (ca) Support vector machines (SVM) neboli metoda podpůrných vektorů je metoda strojového učení s učitelem, sloužící zejména pro klasifikaci a také pro regresní analýzu. Na jejím vynalezení se podílel zejména . Používají se různé kernelové transformace. Intuitivně, vyjadřují podobnost dat, tj. svých dvou vstupních argumentů. Výhodou této metody (a jiných metod založených na jádrové transformaci) je, že transformace se dá definovat pro různé typy objektů, nejen body v Rn. Např. pro grafy, stromy, posloupnosti DNA atd. (cs) Eine Support Vector Machine [səˈpɔːt ˈvektə məˈʃiːn] (SVM, die Übersetzung aus dem Englischen, „Stützvektormaschine“ oder Stützvektormethode, ist nicht gebräuchlich) dient als Klassifikator (vgl. Klassifizierung) und Regressor (vgl. Regressionsanalyse). Eine Support Vector Machine unterteilt eine Menge von Objekten so in Klassen, dass um die Klassengrenzen herum ein möglichst breiter Bereich frei von Objekten bleibt; sie ist ein sogenannter Large Margin Classifier (dt. „Breiter-Rand-Klassifikator“). (de) Las máquinas de vectores de soporte o máquinas de vector soporte (del inglés support-vector machines, SVM) son un conjunto de algoritmos de aprendizaje supervisado desarrollados por Vladimir Vapnik y su equipo en los laboratorios de AT&T Bell. Más formalmente, una SVM construye un hiperplano o conjunto de hiperplanos en un espacio de dimensionalidad muy alta (o incluso infinita) que puede ser utilizado en problemas de clasificación o regresión. Una buena separación entre las clases permitirá una clasificación correcta. (es) In machine learning, support vector machines (SVMs, also support vector networks) are supervised learning models with associated learning algorithms that analyze data for classification and regression analysis. Developed at AT&T Bell Laboratories by Vladimir Vapnik with colleagues (Boser et al., 1992, Guyon et al., 1993, Cortes and Vapnik, 1995, Vapnik et al., 1997) SVMs are one of the most robust prediction methods, being based on statistical learning frameworks or VC theory proposed by Vapnik (1982, 1995) and Chervonenkis (1974). Given a set of training examples, each marked as belonging to one of two categories, an SVM training algorithm builds a model that assigns new examples to one category or the other, making it a non-probabilistic binary linear classifier (although methods such as (en) Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais support-vector machine, SVM) sont un ensemble de techniques d'apprentissage supervisé destinées à résoudre des problèmes de discrimination et de régression. Les SVM sont une généralisation des classifieurs linéaires. (fr) Le macchine a vettori di supporto (SVM, dall'inglese support-vector machines) sono dei modelli di apprendimento supervisionato associati ad algoritmi di apprendimento per la regressione e la classificazione. Dato un insieme di esempi per l'addestramento, ognuno dei quali etichettato con la classe di appartenenza fra le due possibili classi, un algoritmo di addestramento per le SVM costruisce un modello che assegna i nuovi esempi a una delle due classi, ottenendo quindi un classificatore lineare binario non probabilistico. Un modello SVM è una rappresentazione degli esempi come punti nello spazio, mappati in modo tale che gli esempi appartenenti alle due diverse categorie siano chiaramente separati da uno spazio il più possibile ampio. I nuovi esempi sono quindi mappati nello stesso spazio (it) Uma máquina de vetores de suporte (SVM, do inglês: support-vector machine) é um conceito na ciência da computação para um conjunto de métodos de aprendizado supervisionado que analisam os dados e reconhecem padrões, usado para classificação e análise de regressão. O SVM padrão toma como entrada um conjunto de dados e prediz, para cada entrada dada, qual de duas possíveis classes a entrada faz parte, o que faz do SVM um classificador linear binário não probabilístico. Dados um conjunto de exemplos de treinamento, cada um marcado como pertencente a uma de duas categorias, um algoritmo de treinamento do SVM constrói um modelo que atribui novos exemplos a uma categoria ou outra. Um modelo SVM é uma representação de exemplos como pontos no espaço, mapeados de maneira que os exemplos de cada cat (pt) В машинному навчанні ме́тод опо́рних векторі́в — це метод аналізу даних для класифікації та регресійного аналізу за допомогою моделей з керованим навчанням з пов'язаними алгоритмами навчання, які називаються опо́рно-ве́кторними маши́нами (ОВМ, англ. support vector machines, SVM, також опо́рно-ве́кторними мере́жами, англ. support vector networks). Для заданого набору тренувальних зразків, кожен із яких відмічено як належний до однієї чи іншої з двох категорій, алгоритм тренування ОВМ будує модель, яка відносить нові зразки до однієї чи іншої категорії, роблячи це неймовірнісним бінарним лінійним класифікатором. Модель ОВМ є представленням зразків як точок у просторі, відображених таким чином, що зразки з окремих категорій розділено чистою прогалиною, яка є щонайширшою. Нові зразки тоді відо (uk) Метод опорных векторов (англ. SVM, support vector machine) — набор схожих алгоритмов обучения с учителем, использующихся для задач классификации и регрессионного анализа. Принадлежит семейству линейных классификаторов и может также рассматриваться как частный случай регуляризации по Тихонову. Особым свойством метода опорных векторов является непрерывное уменьшение эмпирической ошибки классификации и увеличение зазора, поэтому метод также известен как метод классификатора с максимальным зазором. (ru) |
rdfs:label | شعاع الدعم الآلي (ar) Màquina de vector de suport (ca) Support vector machines (cs) Support Vector Machine (de) Euskarri bektoredun makina (eu) Máquinas de vectores de soporte (es) Support-vector machine (in) Machine à vecteurs de support (fr) Macchine a vettori di supporto (it) 서포트 벡터 머신 (ko) サポートベクターマシン (ja) Support vector machine (nl) Maszyna wektorów nośnych (pl) Máquina de vetores de suporte (pt) Support vector machine (en) Stödvektormaskin (sv) Метод опорных векторов (ru) Метод опорних векторів (uk) 支持向量机 (zh) |
owl:sameAs | freebase:Support vector machine yago-res:Support vector machine http://d-nb.info/gnd/4505517-8 wikidata:Support vector machine dbpedia-ar:Support vector machine dbpedia-bg:Support vector machine http://bn.dbpedia.org/resource/সাপোর্ট-ভেক্টর_মেশিন dbpedia-ca:Support vector machine dbpedia-cs:Support vector machine dbpedia-de:Support vector machine dbpedia-es:Support vector machine dbpedia-et:Support vector machine dbpedia-eu:Support vector machine dbpedia-fa:Support vector machine dbpedia-fi:Support vector machine dbpedia-fr:Support vector machine dbpedia-he:Support vector machine dbpedia-id:Support vector machine dbpedia-it:Support vector machine dbpedia-ja:Support vector machine dbpedia-ko:Support vector machine http://lt.dbpedia.org/resource/Atraminių_vektorių_klasifikatorius dbpedia-mk:Support vector machine dbpedia-nl:Support vector machine http://pa.dbpedia.org/resource/ਸਪੋਰਟ_ਵੈਕਟਰ_ਮਸ਼ੀਨ dbpedia-pl:Support vector machine dbpedia-pt:Support vector machine dbpedia-ru:Support vector machine dbpedia-sl:Support vector machine dbpedia-sr:Support vector machine dbpedia-sv:Support vector machine http://ta.dbpedia.org/resource/மிகைத்தளத்தாங்கு_இயந்திரம் dbpedia-tr:Support vector machine dbpedia-uk:Support vector machine dbpedia-vi:Support vector machine dbpedia-zh:Support vector machine https://global.dbpedia.org/id/2cz3a |
prov:wasDerivedFrom | wikipedia-en:Support_vector_machine?oldid=1116926893&ns=0 |
foaf:depiction | wiki-commons:Special:FilePath/Kernel_Machine.svg wiki-commons:Special:FilePath/Kernel_trick_idea.svg wiki-commons:Special:FilePath/SVM_margin.png wiki-commons:Special:FilePath/Svm_separating_hyperplanes_(SVG).svg wiki-commons:Special:FilePath/Svr_epsilons_demo.svg |
foaf:isPrimaryTopicOf | wikipedia-en:Support_vector_machine |
is dbo:wikiPageDisambiguates of | dbr:SVM |
is dbo:wikiPageRedirects of | dbr:Applications_of_support_vector_machines dbr:Support-vector_machine dbr:Support_Vector_Machine dbr:Support_vector_machines dbr:Support_Vector_Machines dbr:Transductive_Support_Vector_Machine dbr:Support_vector_classifier dbr:Support_vector_method dbr:Support_vector_regression dbr:Svm_(learning) dbr:Svm_(machine_learning) |
is dbo:wikiPageWikiLink of | dbr:Probabilistic_classification dbr:Protein_secondary_structure dbr:Scikit-learn dbr:Elastic_map dbr:Elastic_net_regularization dbr:Electricity_price_forecasting dbr:List_of_academic_fields dbr:List_of_algorithms dbr:Multinomial_logistic_regression dbr:N-gram dbr:Naive_Bayes_classifier dbr:Native-language_identification dbr:Neural_network dbr:Non-negative_matrix_factorization dbr:Merative dbr:Metabolomics dbr:Time_series dbr:Product_finder dbr:Bayesian_interpretation_of_kernel_regularization dbr:Biostatistics dbr:David_Horn_(Israeli_physicist) dbr:Algorithmic_inference dbr:John_Platt_(computer_scientist) dbr:Regularized_least_squares dbr:Ridge_regression dbr:Rita_Cucchiara dbr:Vertica dbr:Decision_boundary dbr:Deep_learning dbr:Incremental_learning dbr:Index_of_robotics_articles dbr:Integral_channel_feature dbr:International_Aging_Research_Portfolio dbr:String_kernel dbr:Protein_structure_prediction dbr:Protein_subcellular_localization_prediction dbr:Protein–DNA_interaction_site_predictor dbr:Coordinate_descent dbr:Corinna_Cortes dbr:Medical_image_computing dbr:Chih-Jen_Lin dbr:Gelatinous_zooplankton dbr:Low-rank_matrix_approximations dbr:Online_machine_learning dbr:Oracle_Data_Mining dbr:Quantitative_structure–activity_relationship dbr:Timeline_of_algorithms dbr:Fusion_adaptive_resonance_theory dbr:Glossary_of_artificial_intelligence dbr:Multimedia_information_retrieval dbr:Multimodal_learning dbr:Confabulation_(neural_networks) dbr:LPBoost dbr:Nonparametric_statistics dbr:Apache_Ignite dbr:Applications_of_support_vector_machines dbr:Logic_learning_machine dbr:Léon_Bottou dbr:Shogun_(toolbox) dbr:Computational_learning_theory dbr:Computer-aided_diagnosis dbr:Empirical_risk_minimization dbr:Feature_scaling dbr:Functional_genomics dbr:Kernel_embedding_of_distributions dbr:Pattern_recognition dbr:SUMO_protein dbr:Surrogate_model dbr:Dispersive_flies_optimisation dbr:Linear_classifier dbr:Linear_predictor_function dbr:Linear_regression dbr:Linear_separability dbr:Local_binary_patterns dbr:Quadratic_classifier dbr:Affective_computing dbr:Event_detection_for_WSN dbr:Forecasting dbr:Outline_of_robotics dbr:Geostatistics dbr:Graph_kernel dbr:Histogram_of_oriented_gradients dbr:History_of_artificial_neural_networks dbr:Isoelectric_point dbr:Katya_Scheinberg dbr:List_of_Russian_Americans dbr:List_of_Russian_IT_developers dbr:Stochastic_gradient_descent dbr:Part-of-speech_tagging dbr:Quantum_machine_learning dbr:Relevance_vector_machine dbr:HeuristicLab dbr:Hinge_loss dbr:Internet_of_things dbr:Bag-of-words_model_in_computer_vision dbr:Cover's_theorem dbr:Hyperparameter_optimization dbr:Hyperplane dbr:Margin_classifier dbr:Object_detection dbr:Artificial_intelligence dbr:Adversarial_machine_learning dbr:Kernel_perceptron dbr:LIBSVM dbr:Binary_classification dbr:Binning_(metagenomics) dbr:Bioinformatics_discovery_of_non-coding_RNAs dbr:Support-vector_machine dbr:Support_Vector_Machine dbr:Support_vector_machines dbr:Heuristic_(psychology) dbr:StatSoft dbr:Receiver_Operating_Characteristic_Curve_Explorer_and_Tester dbr:Text_nailing dbr:Boosting_(machine_learning) dbr:CRM114_(program) dbr:Polynomial_kernel dbr:Space_mapping dbr:Huber_loss dbr:Klaus-Robert_Müller dbr:Meredith_L._Patterson dbr:OpenCV dbr:Ordinal_regression dbr:Radial_basis_function dbr:Radial_basis_function_kernel dbr:Sepp_Hochreiter dbr:Rotating_calipers dbr:Matched_molecular_pair_analysis dbr:Multiple_kernel_learning dbr:Principle_of_maximum_entropy dbr:SVC dbr:SVM dbr:SVR dbr:Sequential_minimal_optimization dbr:Sentiment_analysis dbr:Word-sense_disambiguation dbr:NeuroSolutions dbr:Extreme_learning_machine dbr:Imaging_spectroscopy dbr:Implicit_authentication dbr:In_situ_adaptive_tabulation dbr:List_of_statistics_articles dbr:Tree_kernel dbr:Fisher_kernel dbr:National_University_of_Uzbekistan dbr:Ranking_SVM dbr:Scene_text dbr:Multilayer_perceptron dbr:Video_Multimethod_Assessment_Fusion dbr:Weak_supervision dbr:Skinput dbr:Online_content_analysis dbr:Solar_power_forecasting dbr:Outline_of_artificial_intelligence dbr:Outline_of_machine_learning dbr:Over-the-shoulder_shot dbr:PHOSIDA dbr:Paris_Kanellakis_Award dbr:Ribo_(robot) dbr:Random_subspace_method dbr:Supervised_learning dbr:Types_of_artificial_neural_networks dbr:Yoonkyung_Lee dbr:Support_Vector_Machines dbr:Transductive_Support_Vector_Machine dbr:Support_vector_classifier dbr:Support_vector_method dbr:Support_vector_regression dbr:Svm_(learning) dbr:Svm_(machine_learning) |
is foaf:primaryTopic of | wikipedia-en:Support_vector_machine |