K-medoids (original) (raw)

About DBpedia

Le partitionnement en k-médoïdes est une méthode de partitionnement plus robuste vis-à-vis des données aberrantes (outliers) que celle des k-moyennes (k-means). La différence majeure avec les k-moyennes est que le point central d'une classe est un point du jeu de données (médoïde). En statistique, le médoïde d'une classe est défini comme le point de la classe dont la dissimilarité moyenne avec tous les autres points de la classe est minimale, c'est-à-dire qu'il s'agit du point le plus central de la classe.

thumbnail

Property Value
dbo:abstract The k-medoids problem is a clustering problem similar to k-means. The name was coined by Leonard Kaufman and Peter J. Rousseeuw with their PAM algorithm. Both the k-means and k-medoids algorithms are partitional (breaking the dataset up into groups) and attempt to minimize the distance between points labeled to be in a cluster and a point designated as the center of that cluster. In contrast to the k-means algorithm, k-medoids chooses actual data points as centers (medoids or exemplars), and thereby allows for greater interpretability of the cluster centers than in k-means, where the center of a cluster is not necessarily one of the input data points (it is the average between the points in the cluster). Furthermore, k-medoids can be used with arbitrary dissimilarity measures, whereas k-means generally requires Euclidean distance for efficient solutions. Because k-medoids minimizes a sum of pairwise dissimilarities instead of a sum of squared Euclidean distances, it is more robust to noise and outliers than k-means. k-medoids is a classical partitioning technique of clustering that splits the data set of n objects into k clusters, where the number k of clusters assumed known a priori (which implies that the programmer must specify k before the execution of a k-medoids algorithm). The "goodness" of the given value of k can be assessed with methods such as the silhouette method. The medoid of a cluster is defined as the object in the cluster whose average dissimilarity to all the objects in the cluster is minimal, that is, it is a most centrally located point in the cluster. (en) k-medoids es un algoritmo de agrupamiento (del inglés clustering) relacionado con los algoritmos k-means y . Tanto el k-medoids como el k-means son algoritmos que trabajan con particiones (dividiendo el conjunto de datos en grupos) y ambos intentan minimizar la distancia entre puntos que se añadirían a un grupo y otro punto designado como el centro de ese grupo. En contraste con el algoritmo k-means, k-medoids escoge datapoints como centros y trabaja con una métrica arbitraria de distancias entre datapoints en vez de usar la norma . En 1987 se propuso este método para el trabajo con la norma y otras distancias. K-medoid es una técnica clásica de particionado de grupos que divide los datos conformados por n objetos en k grupos (con k conocido de antemano). Es más robusto ante el ruido y a partes aisladas que k-means porque minimiza una suma de disimilaridades (entre pares de puntos) en vez de una suma de distancias euclidianas cuadradas. Un puede ser definido como el objeto de un grupo cuya disimilaridad media a todos los objetos en el grupo es mínima. Es el punto ubicado más hacia el centro en todo el grupo. (es) Le partitionnement en k-médoïdes est une méthode de partitionnement plus robuste vis-à-vis des données aberrantes (outliers) que celle des k-moyennes (k-means). La différence majeure avec les k-moyennes est que le point central d'une classe est un point du jeu de données (médoïde). En statistique, le médoïde d'une classe est défini comme le point de la classe dont la dissimilarité moyenne avec tous les autres points de la classe est minimale, c'est-à-dire qu'il s'agit du point le plus central de la classe. (fr) Il K-medoids è un algoritmo di clustering partizionale correlato all'algoritmo K-means. Prevede in input un insieme di oggetti e un numero che determina quanti cluster si vogliono in output. Entrambi gli algoritmi sono partizionali (suddividendo il dataset in gruppi) ed entrambi cercano di minimizzare l'errore quadratico medio, la distanza tra punti di un cluster e il punto designato per esserne il centro. In K-means il punto è "artificiale", infatti è il baricentro di tutti i punti nel cluster. Nel K-medoids è usato il punto, tra quelli dati, collocato "più centralmente", in questo modo il centro è uno dei dati osservati. Il K-medoids è più robusto al rumore e agli outlier rispetto al K-means. Un medoid può essere definito come un elemento di un cluster la cui dissimilarità media rispetto a tutti gli oggetti nel cluster è minima, in questo modo esso sarà il punto più centrale di un dato insieme di punti. (it)
dbo:thumbnail wiki-commons:Special:FilePath/K-Medoids_Clustering.gif?width=300
dbo:wikiPageExternalLink https://pypi.org/project/kmedoids/ https://crates.io/crates/kmedoids https://github.com/JuliaStats/Clustering.jl https://cran.r-project.org/web/packages/cluster/index.html
dbo:wikiPageID 6406095 (xsd:integer)
dbo:wikiPageLength 11602 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1119965370 (xsd:integer)
dbo:wikiPageWikiLink dbr:Python_(programming_language) dbr:Peter_Rousseeuw dbr:Rust_(programming_language) dbr:MATLAB dbr:Silhouette_(clustering) dbr:Medoid dbr:Lloyd's_algorithm dbr:ELKI dbr:KNIME dbc:Cluster_analysis_algorithms dbr:Hierarchical_clustering dbr:Greedy_algorithm dbr:Data_clustering dbr:R_(programming_language) dbr:RapidMiner dbr:Euclidean_distance dbr:Squared_Euclidean_distance dbr:Julia_language dbr:K-means dbr:Medoids dbr:File:K-Medoids_Clustering.gif
dbp:wikiPageUsesTemplate dbt:Math dbt:Mvar dbt:Reflist dbt:Rp dbt:Short_description
dcterms:subject dbc:Cluster_analysis_algorithms
rdf:type yago:WikicatStatisticalAlgorithms yago:Abstraction100002137 yago:Act100030358 yago:Activity100407535 yago:Algorithm105847438 yago:Cognition100023271 yago:Datum105816622 yago:Event100029378 yago:Information105816287 yago:Procedure101023820 yago:PsychologicalFeature100023100 yago:YagoPermanentlyLocatedEntity yago:Rule105846932 yago:WikicatAlgorithms yago:WikicatDataClusteringAlgorithms
rdfs:comment Le partitionnement en k-médoïdes est une méthode de partitionnement plus robuste vis-à-vis des données aberrantes (outliers) que celle des k-moyennes (k-means). La différence majeure avec les k-moyennes est que le point central d'une classe est un point du jeu de données (médoïde). En statistique, le médoïde d'une classe est défini comme le point de la classe dont la dissimilarité moyenne avec tous les autres points de la classe est minimale, c'est-à-dire qu'il s'agit du point le plus central de la classe. (fr) k-medoids es un algoritmo de agrupamiento (del inglés clustering) relacionado con los algoritmos k-means y . Tanto el k-medoids como el k-means son algoritmos que trabajan con particiones (dividiendo el conjunto de datos en grupos) y ambos intentan minimizar la distancia entre puntos que se añadirían a un grupo y otro punto designado como el centro de ese grupo. En contraste con el algoritmo k-means, k-medoids escoge datapoints como centros y trabaja con una métrica arbitraria de distancias entre datapoints en vez de usar la norma . En 1987 se propuso este método para el trabajo con la norma y otras distancias. (es) The k-medoids problem is a clustering problem similar to k-means. The name was coined by Leonard Kaufman and Peter J. Rousseeuw with their PAM algorithm. Both the k-means and k-medoids algorithms are partitional (breaking the dataset up into groups) and attempt to minimize the distance between points labeled to be in a cluster and a point designated as the center of that cluster. In contrast to the k-means algorithm, k-medoids chooses actual data points as centers (medoids or exemplars), and thereby allows for greater interpretability of the cluster centers than in k-means, where the center of a cluster is not necessarily one of the input data points (it is the average between the points in the cluster). Furthermore, k-medoids can be used with arbitrary dissimilarity measures, whereas k-me (en) Il K-medoids è un algoritmo di clustering partizionale correlato all'algoritmo K-means. Prevede in input un insieme di oggetti e un numero che determina quanti cluster si vogliono in output. Entrambi gli algoritmi sono partizionali (suddividendo il dataset in gruppi) ed entrambi cercano di minimizzare l'errore quadratico medio, la distanza tra punti di un cluster e il punto designato per esserne il centro. In K-means il punto è "artificiale", infatti è il baricentro di tutti i punti nel cluster. Nel K-medoids è usato il punto, tra quelli dati, collocato "più centralmente", in questo modo il centro è uno dei dati osservati. Il K-medoids è più robusto al rumore e agli outlier rispetto al K-means. (it)
rdfs:label K-medoids (es) K-médoïdes (fr) K-medoids (en) K-medoids (it)
owl:sameAs freebase:K-medoids yago-res:K-medoids wikidata:K-medoids dbpedia-es:K-medoids dbpedia-fa:K-medoids dbpedia-fr:K-medoids dbpedia-it:K-medoids dbpedia-sr:K-medoids https://global.dbpedia.org/id/2wp7j
prov:wasDerivedFrom wikipedia-en:K-medoids?oldid=1119965370&ns=0
foaf:depiction wiki-commons:Special:FilePath/K-Medoids_Clustering.gif
foaf:isPrimaryTopicOf wikipedia-en:K-medoids
is dbo:wikiPageRedirects of dbr:Partitioning_Around_Medoids dbr:Partitioning_around_medoids dbr:K-medoid dbr:K-medoids_clustering
is dbo:wikiPageWikiLink of dbr:List_of_algorithms dbr:Metabolic_gene_cluster dbr:Peter_Rousseeuw dbr:Computational_genomics dbr:Silhouette_(clustering) dbr:Cluster_analysis dbr:Computational_biology dbr:Partitioning_Around_Medoids dbr:Machine_learning_in_bioinformatics dbr:Medoid dbr:Microarray_analysis_techniques dbr:K-means_clustering dbr:K-medians_clustering dbr:Data_stream_clustering dbr:ELKI dbr:Affinity_propagation dbr:List_of_statistics_articles dbr:Outline_of_machine_learning dbr:Partitioning_around_medoids dbr:K-medoid dbr:K-medoids_clustering
is foaf:primaryTopic of wikipedia-en:K-medoids