Principal component analysis (original) (raw)
تحليل العنصر الرئيسي أو التحليل عبر المركبات الرئيسية (بالإنجليزية: Principal component analysis) هي عملية رياضيّة تنتمي إلى شعبة تحليل البيانات، و التي تتمثل في تحويل عدد من المتغيرات المترابطة إلى عدد أقل من المتغيرات غير المترابطة. المتغيرات الناتجة عن عملية التحويل تسمى بالمركبات (أو المكونات أو المحاور) الرئيسية. القيمة المضافة للعملية هي تسهيل تأويل المعطيات المعقدة، عبر تمكين الباحث والإحصائي من تحقيق أمثل توافق بين التقليل من عدد المتغيرات الواصفة للمعطيات، و فقدان المعلومة الأصلية (التباين) الناتج عن اختزال الأبعاد الأصلية.
Property | Value |
---|---|
dbo:abstract | تحليل العنصر الرئيسي أو التحليل عبر المركبات الرئيسية (بالإنجليزية: Principal component analysis) هي عملية رياضيّة تنتمي إلى شعبة تحليل البيانات، و التي تتمثل في تحويل عدد من المتغيرات المترابطة إلى عدد أقل من المتغيرات غير المترابطة. المتغيرات الناتجة عن عملية التحويل تسمى بالمركبات (أو المكونات أو المحاور) الرئيسية. القيمة المضافة للعملية هي تسهيل تأويل المعطيات المعقدة، عبر تمكين الباحث والإحصائي من تحقيق أمثل توافق بين التقليل من عدد المتغيرات الواصفة للمعطيات، و فقدان المعلومة الأصلية (التباين) الناتج عن اختزال الأبعاد الأصلية. (ar) L'anàlisi de components principals (ACP, PCA en anglès), en estadística, és una tècnica utilitzada per reduir la dimensionalitat d'un conjunt de dades per a poder-les representar gràficament en gràfics de dues o tres dimensions agrupant diverses variables de les dades en factors, o components, compostos per l'agrupació de diverses variables. Intuïtivament, la tècnica serveix per determinar el nombre de factors explicatius d'un conjunt de dades que determinen en major grau la d'aquestes dades. L'ACP és útil per identificar les variables responsables de causar una falla o les variables més afectades per la falla. L'ACP construeix una transformació lineal que escull un nou sistema de coordenades per al conjunt original de dades en el qual, la variància de major mida del conjunt de dades és capturada en el primer eix, primera component principal. La segona variància més gran és el segon eix, segona component principal, i així successivament. Per construir aquesta transformació lineal s'ha de construir, primer, la matriu de covariància o matriu de coeficients de correlació. Degut a la simetria d'aquesta matriu existeix una base completa de vectors propis. La transformació que passa les antigues coordenades a les coordenades de la nova base és la transformació lineal necessària per reduir la dimensionalitat de les dades. (ca) Analýza hlavních komponent (Principal Component Analysis, PCA) je v teorii signálu transformace sloužící k dekorelaci dat. Často se používá ke snížení dimenze dat s co nejmenší ztrátou informace. PCA je možno najít také jako Karhunen-Loèveho transformaci, Hotellingovu transformaci, nebo jako singulární rozklad (SVD; v lineární algebře). Z následujícího vzorce je vidět, že PCA je jen přepsáním vstupu do jiné souřadné soustavy: kde X je centrovaná matice n x d se vstupními d-rozměrnými daty v n řádcích, Y obdobná matice výstupních dat,P je d x d matice vlastních vektorů kovarianční matice splňující vztah , kde je diagonální matice obsahující na diagonále vlastní čísla a matice vlastních vektorů je ortonormální, tj. , kde je jednotková matice dimenze . Vlastní vektory (sloupce matice P) tvoří onu novou souřadnou soustavu.Centrování matice X dosáhneme odečtením příslušného výběrového průměru od každého sloupce. (cs) Die Hauptkomponentenanalyse (kurz: HKA, englisch Principal Component Analysis, kurz: PCA; das mathematische Verfahren ist auch als Hauptachsentransformation oder Singulärwertzerlegung bekannt) ist ein Verfahren der multivariaten Statistik. Sie strukturiert umfangreiche Datensätze durch Benutzung der Eigenvektoren der Kovarianzmatrix. Dadurch können Datensätze vereinfacht und veranschaulicht werden, indem eine Vielzahl statistischer Variablen durch eine geringere Zahl möglichst aussagekräftiger Linearkombinationen (die Hauptkomponenten) genähert wird. Speziell in der Bildverarbeitung wird die Hauptkomponentenanalyse, auch Karhunen-Loève-Transformation genannt, benutzt. Sie ist von der Faktorenanalyse zu unterscheiden, mit der sie formale Ähnlichkeit hat und in der sie als Näherungsmethode zur Faktorenextraktion verwendet werden kann (der Unterschied der beiden Verfahren wird im Artikel Faktorenanalyse erläutert). Es gibt verschiedene Verallgemeinerungen der Hauptkomponentenanalyse, z. B. die , die , oder die (kernel principal component analysis, kurz: kernel PCA). (de) Analizo al precipaj konsisteroj (alinomita transformo de Karhunen-Loève (KLT), aŭ transformo de Hotelling) estas matematika teĥniko por plisimpligi la datumojn rezultantaj enkadre de statistiko multvariabla, kaj kiu ebligas evidentigi fenomenojn ial kaŝitajn en la komplekseco de multego da datumoj, determinante kunmetaĵojn da plej rezultivaj datumoj. Tiu metodo ne estis ebla ĝis la ekekzisto de komputiloj, ĉar ĝi bezonas egan amason da kalkulado, sed ekde informadiko, ĝi estas facila kaj fruktdona teĥniko, kiu ekzemple montris el la genaj datumoj de eŭropa loĝantaro la genetikan apartecon de la Eŭskoj de Ebro ĝis Garono, aŭ pruvi, ke la disvastiĝo de agrikulturo ne estis disvastiĝo de novkutimo, sed de gento da agrikulturantoj. La analizo al precipaj konsisteroj estis inventita de Karl Pearson en 1901. Ĝi estas la plej simpla multvariebla analizo aigenvektorbazita. Ĝi estas nun precipe uzata kiel ilo en kaj por prognozi modelojn. Eblas fari analizon al precipaj konsisteroj per de matrico de varianco-kunvarianco (aŭ de korelacio) de datenoj, aŭ per singulara valora malkomponaĵo de matrico de datenoj, kutime post centrigado rilate al la mezvaloroj (kaj normigado) de ĉiu elemento de la matrico. Ĝi estas orta transformo, kiu konvertas aron da observaĵoj de eblaj korelaciataj variabloj al aro de valoroj de precipaj konsisteroj (ankaŭ nomataj ĉefaj komponantoj), tielmaniere ke la unua precipa komponanto prezentas la kiel eble plej grandan variancon (ĉar variabloj estas supozitaj sendependaj laŭ tia metodo) laŭ sia direkto, la kiel eble plej malgranda varianco laŭ la orta direkto; ĉiu laŭvica komponanto havas la kiel eble plej granda varianco, sub la trudo, ke ĝi estu orta (t.e. ne-korelaciigita) al la antaŭa komponanto. Tiu metodo permesas ankaŭ kompresadon de aro da N hazardaj variabloj, al la n-aj (n unuaj komponantoj elektitaj kiel plej bonaj por priskribi la studaton. (eo) En estadística, el análisis de componentes principales (en español ACP, en inglés, PCA) es una técnica utilizada para describir un conjunto de datos en términos de nuevas variables («componentes») no correlacionadas. Los componentes se ordenan por la cantidad de varianza original que describen, por lo que la técnica es útil para reducir la dimensionalidad de un conjunto de datos. Técnicamente, el ACP busca la proyección según la cual los datos queden mejor representados en términos de mínimos cuadrados. Esta convierte un conjunto de observaciones de variables posiblemente correlacionadas en un conjunto de valores de variables sin correlación lineal llamadas componentes principales. El ACP se emplea sobre todo en análisis exploratorio de datos y para construir modelos predictivos. El ACP comporta el cálculo de la descomposición en autovalores de la matriz de covarianza, normalmente tras centrar los datos en la media de cada atributo. Debe diferenciarse del análisis factorial con el que tiene similitudes formales y en el cual puede ser utilizado como un método de aproximación para la extracción de factores. (es) , osagai nagusien analisia (ONA) edo Principal Components Analysis (PCA) elkarrekiko independenteak eta ergodikoak den aldagai multzo edo osagai multzo batetik bariantzarik gabeko aldagai kopuru bat osatzea da,, hasierako osagaien korrelazioa agerian uzteko helburuarekin. Horretarako korrelazio matrizea hartu eta bariantza minimotzen da, puntuek osagaietan dituzten puntuazioak atera asmoz eta horrela egitura hobeto ikusteko. Zehatzago: , minimotu behar da, non o osagaiak diren. Osagai bakoitza aldagai guztien konbinazio lineal bat izango da eta batez ere elkarrekiko bariantza nabarmena duten aldagaiekin izango da loturik. Zenbaitetan Konposatu Nagusien Analisia (KNA) izenez ezagutzen da. (eu) Dalam statistika, analisis komponen utama (disingkat AKU; bahasa Inggris: principal component analysis/PCA) adalah teknik yang digunakan untuk menyederhanakan suatu data, dengan cara mentransformasi data secara linier sehingga terbentuk sistem koordinat baru dengan varians maksimum. Analisis komponen utama dapat digunakan untuk mereduksi dimensi suatu data tanpa mengurangi karakteristik data tersebut secara signifikan. Analisis komponen utama juga sering digunakan untuk menghindari masalah multikolinearitas antar peubah bebas dalam model regresi berganda. Analisis komponen utama merupakan analisis antara dari suatu proses penelitian yang besar atau suatu awalan dari analisis berikutnya, bukan merupakan suatu analisis yang langsung berakhir. Misalnya komponen utama bisa merupakan masukan untuk regresi berganda atau analisis faktor atau . AKU juga dikenal dengan Transformasi Karhunen-Loève (dinamakan untuk menghormati dan ) atau Transformasi Hotelling (dinamakan untuk menghormati ). Analisis komponen utama juga merupakan salah satu teknik statistika multivariat yang dapat menemukan karakteristik data yang tersembunyi. Dalam penerapannya, Analisis komponen utama, justru dibatasi oleh asumsi-asumsinya, yaitu asumsi kelinearan model regresi, asumsi keorthogonalan komponen utama, dan asumsi varians yang besar memiliki struktur yang penting. Secara keseluruhan, metode Analisis komponen utama tampaknya hanya mempunyai penerapan yang sempit dalam ilmu-ilmu fisis, kerekayasaan, dan biologis. Kadang-kadang, dalam ilmu-ilmu pengetahuan sosial, metode analisis komponen utama bermanfaat untuk mencari peubah kombinasi yang efektif. (in) Principal component analysis (PCA) is a popular technique for analyzing large datasets containing a high number of dimensions/features per observation, increasing the interpretability of data while preserving the maximum amount of information, and enabling the visualization of multidimensional data. Formally, PCA is a statistical technique for reducing the dimensionality of a dataset. This is accomplished by linearly transforming the data into a new coordinate system where (most of) the variation in the data can be described with fewer dimensions than the initial data. Many studies use the first two principal components in order to plot the data in two dimensions and to visually identify clusters of closely related data points. Principal component analysis has applications in many fields such as population genetics, microbiome studies, and atmospheric science. The principal components of a collection of points in a real coordinate space are a sequence of unit vectors, where the -th vector is the direction of a line that best fits the data while being orthogonal to the first vectors. Here, a best-fitting line is defined as one that minimizes the average squared perpendicular distance from the points to the line. These directions constitute an orthonormal basis in which different individual dimensions of the data are linearly uncorrelated. Principal component analysis (PCA) is the process of computing the principal components and using them to perform a change of basis on the data, sometimes using only the first few principal components and ignoring the rest. In data analysis, the first principal component of a set of variables, presumed to be jointly normally distributed, is the derived variable formed as a linear combination of the original variables that explains the most variance. The second principal component explains the most variance in what is left once the effect of the first component is removed, and we may proceed through iterations until all the variance is explained. PCA is most commonly used when many of the variables are highly correlated with each other and it is desirable to reduce their number to an independent set. PCA is used in exploratory data analysis and for making predictive models. It is commonly used for dimensionality reduction by projecting each data point onto only the first few principal components to obtain lower-dimensional data while preserving as much of the data's variation as possible. The first principal component can equivalently be defined as a direction that maximizes the variance of the projected data. The -th principal component can be taken as a direction orthogonal to the first principal components that maximizes the variance of the projected data. For either objective, it can be shown that the principal components are eigenvectors of the data's covariance matrix. Thus, the principal components are often computed by eigendecomposition of the data covariance matrix or singular value decomposition of the data matrix. PCA is the simplest of the true eigenvector-based multivariate analyses and is closely related to factor analysis. Factor analysis typically incorporates more domain specific assumptions about the underlying structure and solves eigenvectors of a slightly different matrix. PCA is also related to canonical correlation analysis (CCA). CCA defines coordinate systems that optimally describe the cross-covariance between two datasets while PCA defines a new orthogonal coordinate system that optimally describes variance in a single dataset. Robust and L1-norm-based variants of standard PCA have also been proposed. (en) L'analyse en composantes principales (ACP ou PCA en anglais pour principal component analysis), ou, selon le domaine d'application, transformation de Karhunen–Loève (KLT) ou transformation de Hotelling, est une méthode de la famille de l'analyse des données et plus généralement de la statistique multivariée, qui consiste à transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles variables décorrélées les unes des autres. Ces nouvelles variables sont nommées « composantes principales » ou axes principaux. Elle permet au statisticien de résumer l'information en réduisant le nombre de variables. Il s'agit d'une approche à la fois géométrique (les variables étant représentées dans un nouvel espace, selon des directions d'inertie maximale) et statistique (la recherche portant sur des axes indépendants expliquant au mieux la variabilité — la variance — des données). Lorsqu'on veut compresser un ensemble de variables aléatoires, les premiers axes de l'analyse en composantes principales sont un meilleur choix, du point de vue de l'inertie ou de la variance. L'outil mathématique est appliqué dans d'autres domaines que les statistiques et est parfois appelé décomposition orthogonale aux valeurs propres ou POD (anglais : proper orthogonal decomposition). (fr) L'analisi delle componenti principali (in inglese principal component analysis o abbreviata PCA), anche nota come trasformata di Karhunen-Loève, è una tecnica per la semplificazione dei dati utilizzata nell'ambito della statistica multivariata. Questo metodo fu proposto per la prima volta nel 1901 da Karl Pearson e sviluppato poi da Harold Hotelling nel 1933, e fa parte dell'analisi fattoriale. La tecnica, esempio di riduzione della dimensionalità, ha lo scopo di ridurre il numero più o meno elevato di variabili che descrivono un insieme di dati a un numero minore di variabili latenti, limitando il più possibile la perdita di informazioni. (it) 주성분 분석(主成分分析, Principal component analysis; PCA)은 고차원의 데이터를 저차원의 데이터로 환원시키는 기법을 말한다. 이 때 서로 연관 가능성이 있는 고차원 공간의 표본들을 선형 연관성이 없는 저차원 공간(주성분)의 표본으로 변환하기 위해 을 사용한다. 데이터를 한개의 축으로 사상시켰을 때 그 분산이 가장 커지는 축을 첫 번째 주성분, 두 번째로 커지는 축을 두 번째 주성분으로 놓이도록 새로운 좌표계로 데이터를 선형 변환한다. 이와 같이 표본의 차이를 가장 잘 나타내는 성분들로 분해함으로써 데이터 분석에 여러 가지 이점을 제공한다. 이 변환은 첫째 주성분이 가장 큰 분산을 가지고, 이후의 주성분들은 이전의 주성분들과 직교한다는 제약 아래에 가장 큰 분산을 갖고 있다는 식으로 정의되어있다. 중요한 성분들은 의 고유 벡터이기 때문에 직교하게 된다. 주성분 분석은 신호처리 분야에서는 이산 카루넨-뢰브 변환, 다변량 품질 관리에서는 호텔링 변환, 기계공학에서는 적합 직교 분해(POD), 선형대수학에서는 특잇값 분해 또는 고윳값 분해, 인자 분석:Chapter 7, 심리측정학의 Eckart–Young 이론 (Harman, 1960) 또는 Schmidt–Mirsky 이론, 기상 과학의 실증 직교 함수(EOF), 소음과 진동의 실증적 고유 함수 분해(Sirovich, 1987)와 실증적 요소 분석(Lorenz, 1956), 준조화모드(Brooks et al., 1988), 스펙트럼 분해, 구조 동역학의 실증적 모델 분석 등으로 응용된다. 주성분 분석은 실제 고유 벡터 기반의 다변량 분석들 중 가장 간단한 방식이다. 만약 다변량 데이터 집합이 변수당 1개의 축이 있는 높은 차원의에서 보았을 때 단순히 좌표의 집합으로 보인다면, 주성분 분석은 이를 낮은 차원으로 끌어내려 일종의 그림자를 보고 분석할 수 있게 도와준다. 이는 가장 주요한 일부 요소들을 보여줌으로써 변환된 데이터의 차원수를 줄임으로써 끝난다. 주성분 분석은 인자 분석과 밀접한 관계를 갖고 있다. 인자 분석은 일반적으로 기저 구조에 대한 영역 한정적인 가정을 포함하고, 약간의 차이가 있는 행렬의 고유 벡터를 풀어낸다. 또한 주성분 분석은 정준상관분석(CCA)과도 관계가 있다. 주성분 분석이 하나의 데이터 집합의 변화를 제일 잘 설명하는 새로운 직교 좌표 시스템을 정의하는 반면 정준상관분석은 두 개의 데이터 집합간의 교차 공분산을 가장 잘 설명하는 좌표 시스템을 정의한다. 주성분 분석은 가장 큰 분산을 갖는 부분공간을 보존하는 최적의 선형 변환이라는 특징을 갖는다. 그러나 이산 코사인 변환과 같은 다른 방법에 비해 더 많은 계산시간을 요구하는 단점이 있다. 다른 선형 변환과 달리 주성분 분석은 정해진 기저 벡터를 갖지 않으며, 기저 벡터는 데이터의 특성에 따라 달라진다. (ko) Hoofdcomponentenanalyse, of principale-componentenanalyse (afkorting: PCA), is een multivariate analysemethode in de statistiek om een grote hoeveelheid gegevens te beschrijven met een kleiner aantal relevante grootheden, de hoofdcomponenten of principale componenten. Hoofdcomponentenanalyse werd in 1901 uitgevonden door Karl Pearson. Men spreekt van datareductie, hoewel strikt genomen de gegevens niet gereduceerd zijn, maar alleen de beschrijving ervan. Als hoofdcomponenten berekent de methode de eigenvectoren van de covariantiematrix van de gegevens en kiest daaruit de belangrijkste. Deze eigenvectoren zijn de hoofdassen van de ellipsoïde die door de covariantiematrix wordt beschreven en die min of meer de "puntenwolk" van de data voorstelt. Hoofdcomponentenanalyse is bruikbaar als eerste stap bij een factoranalyse om het maximale aantal en de aard van de factoren te bepalen. Verwante methoden zijn correspondentieanalyse (CA) of "reciprocal averaging" (RA) en de canonische vormen van hoofdcomponentenanalyse en correspondentieanalyse: redundantieanalyse (RDA) en canonische correspondentieanalyse (CCA). (nl) 主成分分析(しゅせいぶんぶんせき、英: principal component analysis; PCA)は、相関のある多数の変数から相関のない少数で全体のばらつきを最もよく表すと呼ばれる変数を合成する多変量解析の一手法。データの次元を削減するために用いられる。 主成分を与える変換は、第一主成分の分散を最大化し、続く主成分はそれまでに決定した主成分と直交するというの下で分散を最大化するようにして選ばれる。主成分の分散を最大化することは、観測値の変化に対する説明能力を可能な限り主成分に持たせる目的で行われる。選ばれた主成分は互いに直交し、与えられた観測値のセットを線型結合として表すことができる。言い換えると、主成分は観測値のセットの直交基底となっている。主成分ベクトルの直交性は、主成分ベクトルが共分散行列(あるいは相関行列)の固有ベクトルになっており、共分散行列が実対称行列であることから導かれる。 主成分分析は純粋に固有ベクトルに基づく多変量解析の中で最も単純なものである。主成分分析は、データの分散をより良く説明するという観点から、そのデータの内部構造を明らかにするものだと考えられる。多くの場合、多変量データは次元が大きく、各変数を軸にとって視覚化することは難しいが、主成分分析によって情報をより少ない次元に集約することでデータを視覚化できる。集約によって得られる情報は、データセットを元のデータ変数の空間から主成分ベクトルのなす空間へ射影したものであり、元のデータから有用な情報を抜き出したものになっている。主成分分析によるデータ構造の可視化は、可視化に必要なだけ先頭から少数の主成分を選択することで実現される。 主成分分析は探索的データ解析における主要な道具であり、にも使われる。主成分分析は観測値の共分散行列やに対する固有値分解、あるいは(大抵は正規化された)データ行列の特異値分解によって行われる。主成分分析の結果は主成分得点(因子得点、英: score)と主成分負荷量(因子負荷量、英: loadings)によって評価される。主成分得点とは、あるデータ点を主成分ベクトルで表現した場合の基底ベクトルにかかる係数であり、ある主成分ベクトルのデータ点に対する寄与の大きさを示す。主成分負荷量はある主成分得点に対する個々の(正規化された)観測値の重みであり、観測値と主成分の相関係数として与えられる。主成分分析は観測値の間の相対的なスケールに対して敏感である。 主成分分析による評価は主成分得点と主成分負荷量をそれぞれ可視化した主成分プロット、あるいは両者を重ね合わせたバイプロットを通して解釈される。主成分分析を実行するためのソフトウェアや関数によって、観測値の基準化の方法や数値計算のアルゴリズムに細かな差異が存在し、個々の方法は必ずしも互いに等価であるとは限らない(例えば、R言語における prcomp 関数と の PCA 関数の結果は異なる)。 (ja) Analiza głównych składowych (ang. principal component analysis, PCA) – jedna ze statystycznych metod analizy czynnikowej. Zbiór danych składający się z N obserwacji, z których każda obejmuje K zmiennych, można interpretować jako chmurę N punktów w przestrzeni K-wymiarowej. Celem PCA jest taki obrót układu współrzędnych, aby maksymalizować w pierwszej kolejności wariancję pierwszej współrzędnej, następnie wariancję drugiej współrzędnej itd.. Tak przekształcone wartości współrzędnych nazywane są ładunkami wygenerowanych czynników (składowych głównych). W ten sposób konstruowana jest nowa przestrzeń obserwacji, w której najwięcej zmienności wyjaśniają początkowe czynniki. PCA jest często używana do zmniejszania rozmiaru zbioru danych statystycznych, poprzez odrzucenie ostatnich czynników. Można też poszukać merytorycznej interpretacji czynników, zależnej od rodzaju danych, co pozwala lepiej zrozumieć naturę danych, choć bywa trudne przy większej liczbie badanych zmiennych. W przetwarzaniu sygnałów PCA jest używana np. do kompresji sygnału. PCA może być oparte albo na macierzy korelacji, albo macierzy kowariancji utworzonej ze zbioru wejściowego. Algorytm w obydwu wersjach jest poza tym identyczny, jednak różne są uzyskane wyniki. W przypadku użycia macierzy kowariancji, zmienne w zbiorze wejściowym o największej wariancji mają największy wpływ na wynik, co może być wskazane, jeśli zmienne reprezentują porównywalne wielkości, np. procentowe zmiany kursów różnych akcji. Użycie macierzy korelacji natomiast odpowiada wstępnej normalizacji zbioru wejściowego tak, aby każda zmienna miała na wejściu identyczną wariancję, co może być wskazane, jeśli wartości zmiennych nie są porównywalne. (pl) Principalkomponentanalys, ofta förkortat PCA av engelskans principal component analysis, är en linjär ortogonal transform som gör att den transformerade datans dimensioner är ortogonala; det vill säga att de är oberoende och inte har någon kovarians (eller korrelation). PCA introducerades 1901 av Karl Pearson. Alternativa namn är transform (KLT), och proper orthogonal decomposition (POD). PCA har likheter med faktoranalys som till skillnad från PCA inte är en ortogonal transform. Typiskt beräknar man PCA på kovariansmatrisen eller korrelationsmatrisen av datan. PCA innebär nu att hitta en linjär transform av data så att kovariansmatrisen blir diagonal, dvs i vilka riktningar data varierar mest. PCA beräknas genom singulärvärdesuppdelning där man beräknar egenvektorerna och dess egenvärden. Egenvektorerna utgör basen för transformerade data, dessa kallas för principalkomponenter eller principalaxlar och utgör de nya dimensionerna; ett nytt koordinatsystem. Detta förfarande kallas även diagonalisering av kovariansmatrisen. Egenvärdena utgör variansen längs med den komponenten. På det här sättet behåller man så mycket som möjligt av variansen i data samtidigt som de nya dimensionerna hålls oberoende. Det betyder att den första komponenten representerar den största oberoende variansen i data. Det är vanligt att man använder PCA för att reducera antalet dimensioner i data. Eftersom komponenterna är valda efter storlek av oberoende varians antar man att man kan behålla mycket av informationen i data genom att använda enbart de komponenter som representerar en stor del av variansen. Man antar ofta att komponenterna som representerar de lägsta nivåerna av varians utgör brus i data. Genom att använda de första komponenterna och exkludera de övriga kan man representera en stor del av variansen i data. Om man antar att informationen av intresse utgörs av varians är detta ett sätt att reducera antalet dimensioner i data. Denna egenskap kan användas för att lättare hitta samband, kompression, visualisering, utforskande analys av data, eller för att underlätta vidare statistisk analys. (sv) Метод главных компонент (англ. principal component analysis, PCA) — один из основных способов уменьшить размерность данных, потеряв наименьшее количество информации. Изобретён Карлом Пирсоном в 1901 году. Применяется во многих областях, в том числе в эконометрике, биоинформатике, обработке изображений, для сжатия данных, в общественных науках. Вычисление главных компонент может быть сведено к вычислению сингулярного разложения матрицы данных или к вычислению собственных векторов и собственных значений ковариационной матрицы исходных данных. Иногда метод главных компонент называют преобразованием Кархунена — Лоэва или преобразованием Хотеллинга (англ. Hotelling transform). (ru) A Análise de Componentes Principais (ACP) ou Principal Component Analysis (PCA) é um procedimento matemático que utiliza uma (ortogonalização de vetores) para converter um conjunto de observações de variáveis possivelmente correlacionadas num conjunto de valores de variáveis chamadas de componentes principais. O número de componentes principais é sempre menor ou igual ao número de variáveis originais. Os componentes principais são garantidamente independentes apenas se os dados forem normalmente distribuídos (conjuntamente). O PCA é sensível à escala relativa das variáveis originais. Dependendo da área de aplicação, o PCA é também conhecido como transformada de Karhunen-Loève (KLT) discreta, transformada de Hotelling ou decomposição ortogonal própria (POD). O PCA foi inventado em 1901 por Karl Pearson. Agora, é mais comumente usado como uma ferramenta de Análise Exploratória de Dados e para fazer . PCA pode ser feito por (Valores Próprios) de uma matriz covariância, geralmente depois de centralizar (e normalizar ou usar pontuações-Z) a matriz de dados para cada atributo. Os resultados de PCA são geralmente discutidos em termos pontuações (scores) de componentes, também chamados de pontuações de fatores (os valores de variável transformados correspondem a um ponto de dado particular), e carregamentos (loadings), i.e., o peso pelo qual cada variável normalizada original deve ser multiplicada para se obter a pontuação de componente. O PCA é a mais simples das verdadeiras análises multivariadas por autovetores (Vetores Próprios). Com frequência, sua operação pode ser tomada como sendo reveladora da estrutura interna dos dados, de uma forma que melhor explica a variância nos dados. Se visualizarmos um conjunto de dados multivariados em um espaço de alta dimensão, com 1 eixo por variável, o PCA pode ser usado para fornecer uma visualização em dimensões mais baixas dos mesmos dados, uma verdadeira "sombra" do objeto original quando visto de seu ponto mais informativo. Isto é feito usando-se apenas os primeiros componentes principais, de forma que a dimensionalidade dos dados transformados é reduzida. O PCA é fortemente ligado à análise fatorial (Factorial Analysis); de fato, alguns pacotes estatísticos propositadamente confluem as técnicas. A verdadeira análise de fatores faz suposições diferentes sobre a estrutura subjacente dos dados e encontra os autovetores de uma matriz levemente diferente. (pt) 在多元统计分析中,主成分分析(英語:Principal components analysis,PCA)是一種统计分析、簡化數據集的方法。它利用正交变换来对一系列可能相关的变量的观测值进行线性变换,从而投影为一系列线性不相关变量的值,这些不相关变量称为主成分(Principal Components)。具体地,主成分可以看做一个线性方程,其包含一系列线性系数来指示投影方向。PCA对原始数据的正则化或预处理敏感(相对缩放)。 基本思想: * 将坐标轴中心移到数据的中心,然后旋转坐标轴,使得数据在C1轴上的方差最大,即全部n个数据个体在该方向上的投影最为分散。意味着更多的信息被保留下来。C1成为第一主成分。 * C2第二主成分:找一个C2,使得C2与C1的协方差(相关系数)为0,以免与C1信息重叠,并且使数据在该方向的方差尽量最大。 * 以此类推,找到第三主成分,第四主成分……第p个主成分。p个随机变量可以有p个主成分。 主成分分析经常用于减少数据集的维数,同时保留数据集當中对方差贡献最大的特征。这是通过保留低維主成分,忽略高維主成分做到的。这样低維成分往往能够保留住数据的最重要部分。但是,这也不是一定的,要视具体应用而定。由于主成分分析依赖所给数据,所以数据的准确性对分析结果影响很大。 主成分分析由卡尔·皮尔逊於1901年發明,用於分析數據及建立數理模型,在原理上与相似。之后在1930年左右由哈罗德·霍特林独立发展并命名。依据应用领域的不同,在信号处理中它也叫做离散K-L 转换(discrete Karhunen–Loève transform (KLT))。其方法主要是通過對共變異數矩陣進行特征分解,以得出數據的主成分(即特征向量)與它們的權值(即特征值)。PCA是最簡單的以特征量分析多元統計分布的方法。其結果可以理解為對原數據中的方差做出解釋:哪一個方向上的數據值對方差的影響最大?換而言之,PCA提供了一種降低數據維度的有效辦法;如果分析者在原數據中除掉最小的特征值所對應的成分,那麼所得的低維度數據必定是最優化的(也即,這樣降低維度必定是失去訊息最少的方法)。主成分分析在分析複雜數據時尤為有用,比如人臉識別。 PCA是最简单的以特征量分析多元统计分布的方法。通常,这种运算可以被看作是揭露数据的内部结构,從而更好地展現数据的變異度。如果一个多元数据集是用高维数据空间之坐标系來表示的,那么PCA能提供一幅较低维度的图像,相當於数据集在讯息量最多之角度上的一個投影。这样就可以利用少量的主成分讓数据的维度降低了。 PCA 跟因子分析密切相关。因子分析通常包含更多特定領域底層結構的假設,並且求解稍微不同矩陣的特徵向量。 PCA 也跟典型相關分析(CCA)有關。CCA定義的坐標系可以最佳地描述兩個數據集之間的互協方差,而PCA定義了新的正交坐標系,能最佳地描述單個數據集當中的變異數。 (zh) Ме́тод головни́х компоне́нт (МГК, англ. principal component analysis, PCA) — метод факторного аналізу в статистиці, який використовує ортогональне перетворення множини спостережень з можливо пов'язаними змінними (сутностями, кожна з яких набуває різних числових значень) у множину змінних без лінійної кореляції, які називаються головними компонентами. Метод головних компонент — один з основних способів зменшити розмірність даних, втративши найменшу кількість інформації. Винайдений Карлом Пірсоном у та доповнений і розширений Гарольдом Готелінґом в 1933 р. Застосовується в багатьох галузях, зокрема, в економетриці, біоінформатиці, обробці зображень, для стиснення даних, у суспільних науках. Обчислення головних компонент може бути зведене до обчислення сингулярного розкладу матриці даних або до обчислення власних векторів і власних чисел коваріаційної матриці початкових даних. Іноді метод головних компонент називають перетворенням Кархунена — Лоева або перетворенням Хотеллінга (англ. Hotelling transform). (uk) |
dbo:thumbnail | wiki-commons:Special:FilePath/GaussianScatterPCA.svg?width=300 |
dbo:wikiPageExternalLink | http://factominer.free.fr/ http://www.coheris.com/produits/analytics/logiciel-data-mining/ https://adegenet.r-forge.r-project.org/ https://books.google.com/books%3Fid=_RIeBQAAQBAJ&printsec=frontcover%23v=snippet&q=%22principal%20component%20analysis%22&f=false http://link.springer.com/10.1007/b98835 http://www.cs.otago.ac.nz/cosc453/student_tutorials/principal_components.pdf https://archive.org/details/principalcompone00joll_0/page/487 https://arxiv.org/abs/1404.1100 |
dbo:wikiPageID | 76340 (xsd:integer) |
dbo:wikiPageLength | 109153 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1120999681 (xsd:integer) |
dbo:wikiPageWikiLink | dbr:Python_(programming_language) dbr:Qlucore dbr:Sample_variance dbr:SciPy dbr:Scikit-learn dbr:Elastic_map dbr:Electric_current dbr:Electrophysiology dbr:NAG_Numerical_Library dbr:Non-negative_matrix_factorization dbr:Metabolomics dbr:Basis_(linear_algebra) dbr:Human_Development_Index dbr:Bessel's_correction dbr:Risk–return_spectrum dbr:Curve dbr:United_Nations_Development_Programme dbr:Variance dbr:Vector_space dbr:Detrended_correspondence_analysis dbr:Independent_component_analysis dbr:Interest_rate_derivative dbr:Standard_deviation dbr:Power_iteration dbr:.NET_Framework dbr:Conjugate_transpose dbr:Correlation_matrix dbr:Covariance dbr:Cross-covariance dbr:Mathematica dbr:Matplotlib dbr:Matrix_(mathematics) dbr:Matrix_algebra dbr:Mean dbr:SAS_(software) dbr:SPSS dbr:Geometric_data_analysis dbr:Low-rank_approximation dbr:Neuron dbr:Orthogonal dbr:Outlier dbr:Scree_plot dbr:Eigendecomposition_of_a_matrix dbr:Eigenvalue dbr:Eigenvector dbr:Eigenvectors dbr:Ellipsoid dbr:Empirical_orthogonal_functions dbr:Equality_(mathematics) dbr:GNU_Octave dbr:Genomics dbr:Mlpack dbr:Mutual_information dbr:NMath dbr:Coordinate_system dbr:Correlation_clustering dbr:Correspondence_analysis dbr:LOBPCG dbr:Two-factor_theory_of_intelligence dbr:Orthogonal_transformation dbr:Stock_selection_criterion dbr:Phase_transitions dbr:Approximation dbr:Louis_Leon_Thurstone dbr:Lp_space dbr:Luigi_Luca_Cavalli-Sforza dbr:MATLAB dbr:Signal_processing dbr:Singular_value_decomposition dbr:Standard_score dbr:Cluster_analysis dbr:Functional_principal_component_analysis dbr:Iconography_of_correlations dbr:Kernel_principal_component_analysis dbr:Orthonormal_basis dbr:Frobenius_norm dbr:Pattern_recognition dbr:Point_distribution_model dbr:Population_genetics dbr:Principal_component_regression dbr:Principal_geodesic_analysis dbr:Proper_orthogonal_decomposition dbr:Stock dbr:Swap_(finance) dbr:Matrix-free_methods dbr:BLAS dbr:C++ dbr:Action_potential dbr:Transpose dbr:Trevor_Hastie dbr:Data_mining dbr:Weka_(machine_learning) dbr:White_noise dbr:Joe_Flood_(policy_analyst) dbr:K-means_clustering dbr:Lanczos_algorithm dbr:Linear_discriminant_analysis dbr:Gram–Schmidt dbr:Risk_return_ratio dbr:Singular_spectrum_analysis dbr:ALGLIB dbr:Analytica_(software) dbr:Dynamic_mode_decomposition dbr:ELKI dbr:Eran_Elhaik dbr:Factor_analysis dbr:Non-linear_iterative_partial_least_squares dbr:Normalization_(statistics) dbr:PHP dbr:Diagonal dbr:Diagonal_matrix dbr:Dimensionality_reduction dbr:KNIME dbr:Transform_coding dbr:Matrix_decomposition dbr:Principal_axis_theorem dbr:Projection_(mathematics) dbr:Rank_(linear_algebra) dbr:Rayleigh_quotient dbr:Regression_analysis dbr:Robust_principal_component_analysis dbr:Gretl dbr:Harold_Hotelling dbr:Atmospheric_science dbr:Jean-Paul_Benzécri dbr:Covariance_matrix dbr:Change_of_basis dbr:Charles_Spearman dbr:Karhunen–Loève_theorem dbr:Karl_Pearson dbr:L1-norm_principal_component_analysis dbr:Biplot dbc:Matrix_decompositions dbr:Eigenface dbr:Tucker_decomposition dbr:Whitening_transformation dbr:Z-score dbr:Diagonalizable_matrix dbr:Discrete_cosine_transform dbr:Distance_from_a_point_to_a_line dbr:Asset_allocation dbc:Dimension_reduction dbr:Bootstrapping_(statistics) dbr:CUR_matrix_approximation dbr:Polar_decomposition dbr:Positive_semidefinite_matrix dbr:Spectral_theorem dbr:Circular_reasoning dbr:City_development_index dbr:Free_software dbr:Contingency_tables dbr:Explanatory_variable dbr:Empirical_mean dbr:Iid dbr:Intelligence_quotient dbr:Kullback–Leibler_divergence dbr:Microbiome dbr:Minimum_mean_square_error dbr:Oja's_rule dbr:OpenCV dbr:Oracle_Database dbr:Orange_(software) dbr:Origin_(data_analysis_software) dbr:Canonical_correlation dbr:Canonical_correspondence_analysis dbr:R_(programming_language) dbr:Real_coordinate_space dbr:Interactive_Data_Language dbr:Unit_vector dbr:Multilinear_principal_component_analysis dbr:Multiple_correspondence_analysis dbr:Risk_management dbr:Signal-to-noise_ratio dbr:Spike-triggered_covariance dbr:Weighted_least_squares dbr:Neuroscience dbr:Expectation–maximization_algorithm dbr:Exploratory_data_analysis dbr:Factor_analysis_of_mixed_data dbr:Factorial_code dbr:IDL_(programming_language) dbr:Linear_transformation dbr:Ludovic_Lebart dbr:Robust_statistics dbr:Scientific_Reports dbr:High_dimensional_data dbr:Multilinear_subspace_learning dbr:Sparse_PCA dbr:Psychometrics dbr:Nonlinear_dimensionality_reduction dbr:Perpendicular_distance dbr:PARAFAC dbr:Overfitting dbr:Spike_sorting dbr:Linear_correlation dbr:Order_parameters dbr:Orthogonal_coordinate_system dbr:Orthonormal_transformation dbr:Round-off_errors dbr:Causal_modeling dbr:Eigendecomposition dbr:Eigenvalues dbr:Eigenvectors_and_eigenvalues dbr:Kernel_PCA dbr:Quantitative_finance dbr:Partial_least_squares dbr:Eckart–Young_theorem dbr:Principal_diagonal dbr:Principle_Component_Analysis dbr:Chi-squared_statistic dbr:Julia_language dbr:Mode_shape dbr:Predictive_modeling dbr:B:Statistics/Multivariate_Data_Analysis/Principal_Component_Analysis dbr:File:PCA_of_Haplogroup_J_using_37_STRs.png dbr:File:PCA_versus_Factor_Analysis.jpg dbr:File:SCREE_plot.jpg dbr:File:GaussianScatterPCA.svg dbr:File:Elmap_breastcancer_wiki.png dbr:File:AirMerIconographyCorrelation.jpg dbr:File:Fractional_Residual_Variances_comparison,_PCA_and_NMF.pdf dbr:V:Exploratory_factor_analysis |
dbp:id | ey2PE5xi9-A#t=2385 (en) |
dbp:title | Stanford University video by Andrew Ng (en) |
dbp:wikiPageUsesTemplate | dbt:! dbt:Authority_control dbt:Citation_needed dbt:Cite_book dbt:Clarify dbt:Commons_category dbt:Div_col dbt:Div_col_end dbt:Main dbt:Math dbt:Mvar dbt:Page_needed dbt:Reflist dbt:Rp dbt:See_also dbt:Short_description dbt:YouTube dbt:Isbn dbt:Statistics |
dcterms:subject | dbc:Matrix_decompositions dbc:Dimension_reduction |
gold:hypernym | dbr:Procedure |
rdf:type | owl:Thing dbo:AnatomicalStructure yago:WikicatMatrixDecompositions yago:Abstraction100002137 yago:Algebra106012726 yago:Cognition100023271 yago:Content105809192 yago:Decomposition106013471 yago:Discipline105996646 yago:KnowledgeDomain105999266 yago:Mathematics106000644 yago:PsychologicalFeature100023100 yago:PureMathematics106003682 yago:Science105999797 yago:VectorAlgebra106013298 |
rdfs:comment | تحليل العنصر الرئيسي أو التحليل عبر المركبات الرئيسية (بالإنجليزية: Principal component analysis) هي عملية رياضيّة تنتمي إلى شعبة تحليل البيانات، و التي تتمثل في تحويل عدد من المتغيرات المترابطة إلى عدد أقل من المتغيرات غير المترابطة. المتغيرات الناتجة عن عملية التحويل تسمى بالمركبات (أو المكونات أو المحاور) الرئيسية. القيمة المضافة للعملية هي تسهيل تأويل المعطيات المعقدة، عبر تمكين الباحث والإحصائي من تحقيق أمثل توافق بين التقليل من عدد المتغيرات الواصفة للمعطيات، و فقدان المعلومة الأصلية (التباين) الناتج عن اختزال الأبعاد الأصلية. (ar) L'analisi delle componenti principali (in inglese principal component analysis o abbreviata PCA), anche nota come trasformata di Karhunen-Loève, è una tecnica per la semplificazione dei dati utilizzata nell'ambito della statistica multivariata. Questo metodo fu proposto per la prima volta nel 1901 da Karl Pearson e sviluppato poi da Harold Hotelling nel 1933, e fa parte dell'analisi fattoriale. La tecnica, esempio di riduzione della dimensionalità, ha lo scopo di ridurre il numero più o meno elevato di variabili che descrivono un insieme di dati a un numero minore di variabili latenti, limitando il più possibile la perdita di informazioni. (it) L'anàlisi de components principals (ACP, PCA en anglès), en estadística, és una tècnica utilitzada per reduir la dimensionalitat d'un conjunt de dades per a poder-les representar gràficament en gràfics de dues o tres dimensions agrupant diverses variables de les dades en factors, o components, compostos per l'agrupació de diverses variables. Intuïtivament, la tècnica serveix per determinar el nombre de factors explicatius d'un conjunt de dades que determinen en major grau la d'aquestes dades. L'ACP és útil per identificar les variables responsables de causar una falla o les variables més afectades per la falla. (ca) Analýza hlavních komponent (Principal Component Analysis, PCA) je v teorii signálu transformace sloužící k dekorelaci dat. Často se používá ke snížení dimenze dat s co nejmenší ztrátou informace. PCA je možno najít také jako Karhunen-Loèveho transformaci, Hotellingovu transformaci, nebo jako singulární rozklad (SVD; v lineární algebře). Z následujícího vzorce je vidět, že PCA je jen přepsáním vstupu do jiné souřadné soustavy: Vlastní vektory (sloupce matice P) tvoří onu novou souřadnou soustavu.Centrování matice X dosáhneme odečtením příslušného výběrového průměru od každého sloupce. (cs) Die Hauptkomponentenanalyse (kurz: HKA, englisch Principal Component Analysis, kurz: PCA; das mathematische Verfahren ist auch als Hauptachsentransformation oder Singulärwertzerlegung bekannt) ist ein Verfahren der multivariaten Statistik. Sie strukturiert umfangreiche Datensätze durch Benutzung der Eigenvektoren der Kovarianzmatrix. Dadurch können Datensätze vereinfacht und veranschaulicht werden, indem eine Vielzahl statistischer Variablen durch eine geringere Zahl möglichst aussagekräftiger Linearkombinationen (die Hauptkomponenten) genähert wird. Speziell in der Bildverarbeitung wird die Hauptkomponentenanalyse, auch Karhunen-Loève-Transformation genannt, benutzt. Sie ist von der Faktorenanalyse zu unterscheiden, mit der sie formale Ähnlichkeit hat und in der sie als Näherungsmethode z (de) Analizo al precipaj konsisteroj (alinomita transformo de Karhunen-Loève (KLT), aŭ transformo de Hotelling) estas matematika teĥniko por plisimpligi la datumojn rezultantaj enkadre de statistiko multvariabla, kaj kiu ebligas evidentigi fenomenojn ial kaŝitajn en la komplekseco de multego da datumoj, determinante kunmetaĵojn da plej rezultivaj datumoj. Tiu metodo ne estis ebla ĝis la ekekzisto de komputiloj, ĉar ĝi bezonas egan amason da kalkulado, sed ekde informadiko, ĝi estas facila kaj fruktdona teĥniko, kiu ekzemple montris el la genaj datumoj de eŭropa loĝantaro la genetikan apartecon de la Eŭskoj de Ebro ĝis Garono, aŭ pruvi, ke la disvastiĝo de agrikulturo ne estis disvastiĝo de novkutimo, sed de gento da agrikulturantoj. (eo) En estadística, el análisis de componentes principales (en español ACP, en inglés, PCA) es una técnica utilizada para describir un conjunto de datos en términos de nuevas variables («componentes») no correlacionadas. Los componentes se ordenan por la cantidad de varianza original que describen, por lo que la técnica es útil para reducir la dimensionalidad de un conjunto de datos. Debe diferenciarse del análisis factorial con el que tiene similitudes formales y en el cual puede ser utilizado como un método de aproximación para la extracción de factores. (es) , osagai nagusien analisia (ONA) edo Principal Components Analysis (PCA) elkarrekiko independenteak eta ergodikoak den aldagai multzo edo osagai multzo batetik bariantzarik gabeko aldagai kopuru bat osatzea da,, hasierako osagaien korrelazioa agerian uzteko helburuarekin. Horretarako korrelazio matrizea hartu eta bariantza minimotzen da, puntuek osagaietan dituzten puntuazioak atera asmoz eta horrela egitura hobeto ikusteko. Zehatzago: , minimotu behar da, non o osagaiak diren. (eu) L'analyse en composantes principales (ACP ou PCA en anglais pour principal component analysis), ou, selon le domaine d'application, transformation de Karhunen–Loève (KLT) ou transformation de Hotelling, est une méthode de la famille de l'analyse des données et plus généralement de la statistique multivariée, qui consiste à transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles variables décorrélées les unes des autres. Ces nouvelles variables sont nommées « composantes principales » ou axes principaux. Elle permet au statisticien de résumer l'information en réduisant le nombre de variables. (fr) Principal component analysis (PCA) is a popular technique for analyzing large datasets containing a high number of dimensions/features per observation, increasing the interpretability of data while preserving the maximum amount of information, and enabling the visualization of multidimensional data. Formally, PCA is a statistical technique for reducing the dimensionality of a dataset. This is accomplished by linearly transforming the data into a new coordinate system where (most of) the variation in the data can be described with fewer dimensions than the initial data. Many studies use the first two principal components in order to plot the data in two dimensions and to visually identify clusters of closely related data points. Principal component analysis has applications in many fields s (en) Dalam statistika, analisis komponen utama (disingkat AKU; bahasa Inggris: principal component analysis/PCA) adalah teknik yang digunakan untuk menyederhanakan suatu data, dengan cara mentransformasi data secara linier sehingga terbentuk sistem koordinat baru dengan varians maksimum. Analisis komponen utama dapat digunakan untuk mereduksi dimensi suatu data tanpa mengurangi karakteristik data tersebut secara signifikan. Analisis komponen utama juga sering digunakan untuk menghindari masalah multikolinearitas antar peubah bebas dalam model regresi berganda. (in) 주성분 분석(主成分分析, Principal component analysis; PCA)은 고차원의 데이터를 저차원의 데이터로 환원시키는 기법을 말한다. 이 때 서로 연관 가능성이 있는 고차원 공간의 표본들을 선형 연관성이 없는 저차원 공간(주성분)의 표본으로 변환하기 위해 을 사용한다. 데이터를 한개의 축으로 사상시켰을 때 그 분산이 가장 커지는 축을 첫 번째 주성분, 두 번째로 커지는 축을 두 번째 주성분으로 놓이도록 새로운 좌표계로 데이터를 선형 변환한다. 이와 같이 표본의 차이를 가장 잘 나타내는 성분들로 분해함으로써 데이터 분석에 여러 가지 이점을 제공한다. 이 변환은 첫째 주성분이 가장 큰 분산을 가지고, 이후의 주성분들은 이전의 주성분들과 직교한다는 제약 아래에 가장 큰 분산을 갖고 있다는 식으로 정의되어있다. 중요한 성분들은 의 고유 벡터이기 때문에 직교하게 된다. 주성분 분석은 인자 분석과 밀접한 관계를 갖고 있다. 인자 분석은 일반적으로 기저 구조에 대한 영역 한정적인 가정을 포함하고, 약간의 차이가 있는 행렬의 고유 벡터를 풀어낸다. (ko) 主成分分析(しゅせいぶんぶんせき、英: principal component analysis; PCA)は、相関のある多数の変数から相関のない少数で全体のばらつきを最もよく表すと呼ばれる変数を合成する多変量解析の一手法。データの次元を削減するために用いられる。 主成分を与える変換は、第一主成分の分散を最大化し、続く主成分はそれまでに決定した主成分と直交するというの下で分散を最大化するようにして選ばれる。主成分の分散を最大化することは、観測値の変化に対する説明能力を可能な限り主成分に持たせる目的で行われる。選ばれた主成分は互いに直交し、与えられた観測値のセットを線型結合として表すことができる。言い換えると、主成分は観測値のセットの直交基底となっている。主成分ベクトルの直交性は、主成分ベクトルが共分散行列(あるいは相関行列)の固有ベクトルになっており、共分散行列が実対称行列であることから導かれる。 主成分分析による評価は主成分得点と主成分負荷量をそれぞれ可視化した主成分プロット、あるいは両者を重ね合わせたバイプロットを通して解釈される。主成分分析を実行するためのソフトウェアや関数によって、観測値の基準化の方法や数値計算のアルゴリズムに細かな差異が存在し、個々の方法は必ずしも互いに等価であるとは限らない(例えば、R言語における prcomp 関数と の PCA 関数の結果は異なる)。 (ja) Hoofdcomponentenanalyse, of principale-componentenanalyse (afkorting: PCA), is een multivariate analysemethode in de statistiek om een grote hoeveelheid gegevens te beschrijven met een kleiner aantal relevante grootheden, de hoofdcomponenten of principale componenten. Hoofdcomponentenanalyse werd in 1901 uitgevonden door Karl Pearson. Hoofdcomponentenanalyse is bruikbaar als eerste stap bij een factoranalyse om het maximale aantal en de aard van de factoren te bepalen. (nl) Analiza głównych składowych (ang. principal component analysis, PCA) – jedna ze statystycznych metod analizy czynnikowej. Zbiór danych składający się z N obserwacji, z których każda obejmuje K zmiennych, można interpretować jako chmurę N punktów w przestrzeni K-wymiarowej. Celem PCA jest taki obrót układu współrzędnych, aby maksymalizować w pierwszej kolejności wariancję pierwszej współrzędnej, następnie wariancję drugiej współrzędnej itd.. Tak przekształcone wartości współrzędnych nazywane są ładunkami wygenerowanych czynników (składowych głównych). W ten sposób konstruowana jest nowa przestrzeń obserwacji, w której najwięcej zmienności wyjaśniają początkowe czynniki. (pl) A Análise de Componentes Principais (ACP) ou Principal Component Analysis (PCA) é um procedimento matemático que utiliza uma (ortogonalização de vetores) para converter um conjunto de observações de variáveis possivelmente correlacionadas num conjunto de valores de variáveis chamadas de componentes principais. O número de componentes principais é sempre menor ou igual ao número de variáveis originais. Os componentes principais são garantidamente independentes apenas se os dados forem normalmente distribuídos (conjuntamente). O PCA é sensível à escala relativa das variáveis originais. Dependendo da área de aplicação, o PCA é também conhecido como transformada de Karhunen-Loève (KLT) discreta, transformada de Hotelling ou decomposição ortogonal própria (POD). (pt) Ме́тод головни́х компоне́нт (МГК, англ. principal component analysis, PCA) — метод факторного аналізу в статистиці, який використовує ортогональне перетворення множини спостережень з можливо пов'язаними змінними (сутностями, кожна з яких набуває різних числових значень) у множину змінних без лінійної кореляції, які називаються головними компонентами. (uk) Principalkomponentanalys, ofta förkortat PCA av engelskans principal component analysis, är en linjär ortogonal transform som gör att den transformerade datans dimensioner är ortogonala; det vill säga att de är oberoende och inte har någon kovarians (eller korrelation). PCA introducerades 1901 av Karl Pearson. Alternativa namn är transform (KLT), och proper orthogonal decomposition (POD). PCA har likheter med faktoranalys som till skillnad från PCA inte är en ortogonal transform. (sv) 在多元统计分析中,主成分分析(英語:Principal components analysis,PCA)是一種统计分析、簡化數據集的方法。它利用正交变换来对一系列可能相关的变量的观测值进行线性变换,从而投影为一系列线性不相关变量的值,这些不相关变量称为主成分(Principal Components)。具体地,主成分可以看做一个线性方程,其包含一系列线性系数来指示投影方向。PCA对原始数据的正则化或预处理敏感(相对缩放)。 基本思想: * 将坐标轴中心移到数据的中心,然后旋转坐标轴,使得数据在C1轴上的方差最大,即全部n个数据个体在该方向上的投影最为分散。意味着更多的信息被保留下来。C1成为第一主成分。 * C2第二主成分:找一个C2,使得C2与C1的协方差(相关系数)为0,以免与C1信息重叠,并且使数据在该方向的方差尽量最大。 * 以此类推,找到第三主成分,第四主成分……第p个主成分。p个随机变量可以有p个主成分。 主成分分析经常用于减少数据集的维数,同时保留数据集當中对方差贡献最大的特征。这是通过保留低維主成分,忽略高維主成分做到的。这样低維成分往往能够保留住数据的最重要部分。但是,这也不是一定的,要视具体应用而定。由于主成分分析依赖所给数据,所以数据的准确性对分析结果影响很大。 (zh) Метод главных компонент (англ. principal component analysis, PCA) — один из основных способов уменьшить размерность данных, потеряв наименьшее количество информации. Изобретён Карлом Пирсоном в 1901 году. Применяется во многих областях, в том числе в эконометрике, биоинформатике, обработке изображений, для сжатия данных, в общественных науках. (ru) |
rdfs:label | تحليل العنصر الرئيسي (ar) Anàlisi de components principals (ca) Analýza hlavních komponent (cs) Hauptkomponentenanalyse (de) Analizo al precipaj konsisteroj (eo) Análisis de componentes principales (es) Osagai nagusien analisi (eu) Analyse en composantes principales (fr) Analisis komponen utama (in) Analisi delle componenti principali (it) 주성분 분석 (ko) 主成分分析 (ja) Principal component analysis (en) Hoofdcomponentenanalyse (nl) Analiza głównych składowych (pl) Análise de componentes principais (pt) Метод главных компонент (ru) Principalkomponentanalys (sv) 主成分分析 (zh) Метод головних компонент (uk) |
rdfs:seeAlso | dbr:Portfolio_optimization |
owl:sameAs | dbpedia-sv:Principal component analysis freebase:Principal component analysis yago-res:Principal component analysis http://d-nb.info/gnd/4129174-8 wikidata:Principal component analysis dbpedia-ar:Principal component analysis http://ast.dbpedia.org/resource/Analís_de_componentes_principales dbpedia-ca:Principal component analysis dbpedia-cs:Principal component analysis dbpedia-de:Principal component analysis dbpedia-eo:Principal component analysis dbpedia-es:Principal component analysis dbpedia-et:Principal component analysis dbpedia-eu:Principal component analysis dbpedia-fa:Principal component analysis dbpedia-fi:Principal component analysis dbpedia-fr:Principal component analysis dbpedia-gl:Principal component analysis dbpedia-he:Principal component analysis dbpedia-hu:Principal component analysis dbpedia-id:Principal component analysis dbpedia-is:Principal component analysis dbpedia-it:Principal component analysis dbpedia-ja:Principal component analysis dbpedia-ko:Principal component analysis dbpedia-nl:Principal component analysis dbpedia-pl:Principal component analysis dbpedia-pt:Principal component analysis dbpedia-ru:Principal component analysis dbpedia-sk:Principal component analysis dbpedia-sr:Principal component analysis http://tl.dbpedia.org/resource/Analisis_ng_pangunahing_bahagi dbpedia-tr:Principal component analysis dbpedia-uk:Principal component analysis dbpedia-vi:Principal component analysis dbpedia-zh:Principal component analysis https://global.dbpedia.org/id/2feP7 |
prov:wasDerivedFrom | wikipedia-en:Principal_component_analysis?oldid=1120999681&ns=0 |
foaf:depiction | wiki-commons:Special:FilePath/AirMerIconographyCorrelation.jpg wiki-commons:Special:FilePath/Elmap_breastcancer_wiki.png wiki-commons:Special:FilePath/GaussianScatterPCA.svg wiki-commons:Special:FilePath/PCA_of_Haplogroup_J_using_37_STRs.png wiki-commons:Special:FilePath/PCA_versus_Factor_Analysis.jpg wiki-commons:Special:FilePath/SCREE_plot.jpg |
foaf:isPrimaryTopicOf | wikipedia-en:Principal_component_analysis |
is dbo:wikiPageDisambiguates of | dbr:PCA dbr:Component_analysis |
is dbo:wikiPageRedirects of | dbr:Nonlinear_iterative_partial_least_squares dbr:Principal_component dbr:Non-linear_iterative_partial_least_squares dbr:Principal_Component_Analysis dbr:Principal_Components_Analysis dbr:Principal_components_analysis dbr:Hotelling_transform dbr:Characteristic_vector_analysis dbr:Eigenimage dbr:Eigenvector_analysis dbr:KL_transform dbr:Conditional_principal_components_analysis dbr:NIPALS dbr:Principal-component_analysis dbr:Principal-components_analysis dbr:Principal_component_analyses dbr:Principal_components dbr:Principle_Component_Analysis dbr:Principle_component_analysis dbr:Principle_components dbr:Principle_components_analysis dbr:Probabilistic_principal_component_analysis |
is dbo:wikiPageWikiLink of | dbr:California_Report_Card dbr:Scale_(social_sciences) dbr:Elastic_map dbr:England_and_Wales_Precipitation dbr:Multivariate_statistics dbr:Nearest_neighbor_search dbr:Non-negative_matrix_factorization dbr:METAGENassist dbr:Metabolomics dbr:Morphometrics dbr:Radar_chart dbr:One-shot_learning dbr:Partial_least_squares_path_modeling dbr:Time_series dbr:Projection_pursuit dbr:Nonlinear_iterative_partial_least_squares dbr:Bosniaks dbr:Brassicasterol dbr:Ali_Akansu dbr:Animal_cognition dbr:Annoyance_factor dbr:Anoura dbr:Archimedes_Palimpsest dbr:Hockey_stick_graph_(global_temperature) dbr:List_of_research_universities_in_the_United_States dbr:Peter_Rousseeuw dbr:Repertory_grid dbr:Richard_A._Muller dbr:Curse_of_dimensionality dbr:DNA_history_of_Egypt dbr:DNA_phenotyping dbr:Vietnamese_people dbr:Decision_tree_learning dbr:Degrees_of_freedom_problem dbr:EEG_microstates dbr:Independent_component_analysis dbr:Inflammatory_demyelinating_diseases_of_the_central_nervous_system dbr:Portfolio_optimization dbr:Premovement_neuronal_activity dbr:Sparse_distributed_memory dbr:Copts dbr:Covariance dbr:Crowdsourcing dbr:Analyse-it dbr:Analysis dbr:Analytic_hierarchy_process dbr:Anatolian_hunter-gatherers dbr:Mathematical_finance dbr:MaxStat dbr:Chemical_imaging dbr:Chemical_sensor_array dbr:Chemometrics dbr:Estimation_of_covariance_matrices dbr:Gaussian_network_model dbr:Generalized_Procrustes_analysis dbr:Generalized_canonical_correlation dbr:Genetic_history_of_the_Middle_East dbr:Genetics_and_archaeogenetics_of_South_Asia dbr:Low-rank_approximation dbr:Online_machine_learning dbr:Sociomapping dbr:Pump–probe_microscopy dbr:Quantitative_Descriptive_Analysis dbr:Quantum_clustering dbr:Race_and_genetics dbr:Edward_Trifonov dbr:Eigenvalues_and_eigenvectors dbr:Genetic_history_of_East_Asians dbr:Genetic_history_of_Europe dbr:Genetic_studies_on_Croats dbr:Genetic_studies_on_Serbs dbr:Genome-wide_complex_trait_analysis dbr:Glossary_of_artificial_intelligence dbr:Glossary_of_probability_and_statistics dbr:Greeks dbr:Mlpy dbr:Modulo_operation dbr:Mondrian_(software) dbr:Multidimensional_empirical_mode_decomposition dbr:Condensation_algorithm dbr:Confirmatory_composite_analysis dbr:Constellation_model dbr:Correspondence_analysis dbr:Dalea_searlsiae dbr:Eric_V._Anslyn dbr:LOBPCG dbr:WHO-CHOICE dbr:Apache_Spark dbr:Apache_SystemDS dbr:List_of_Bioacoustics_Software dbr:Luskhan dbr:Machine_learning dbr:Maltese_people dbr:Singular_value_decomposition dbr:SmartPLS dbr:Sufficient_dimension_reduction dbr:Cluster_analysis dbr:Common_spatial_pattern dbr:Computer-aided_diagnosis dbr:Empathy_quotient dbr:Fault_detection_and_isolation dbr:Feature_extraction dbr:Feature_learning dbr:Functional_genomics dbr:Functional_principal_component_analysis dbr:Kernel_principal_component_analysis dbr:PCA dbr:Partial_least_squares_regression dbr:Persona_(user_experience) dbr:Phong_reflection_model dbr:Point_distribution_model dbr:Population_structure_(genetics) dbr:Principal_component dbr:Principal_component_regression dbr:Principal_geodesic_analysis dbr:Proper_orthogonal_decomposition dbr:Machine_learning_in_bioinformatics dbr:Topological_data_analysis dbr:Total_least_squares dbr:Matching_pursuit dbr:Matrix-assisted_laser_desorption_electrospray_ionization dbr:Matrix_completion dbr:Mayan_genetics dbr:Media_linguistics dbr:Adaptive_coordinate_descent dbr:Dark_Triad_Dirty_Dozen dbr:Data_analysis dbr:Data_and_information_visualization dbr:Data_fusion dbr:WarpPLS dbr:Wegman_Report dbr:White_noise dbr:Distributed_temperature_sensing dbr:G_factor_in_non-humans dbr:Iris_flower_data_set dbr:Land_cover_maps dbr:Landscape_genetics dbr:Laser_Doppler_imaging dbr:Latent_and_observable_variables dbr:Latent_semantic_analysis dbr:Least_squares dbr:Linear_discriminant_analysis dbr:Linear_predictor_function dbr:Linear_regression dbr:Local_pixel_grouping dbr:Locality-sensitive_hashing dbr:Nonlinear_system_identification dbr:Photoplethysmogram dbr:RNA-Seq dbr:Primate_cognition dbr:Singular_spectrum_analysis dbr:3D_sound_synthesis dbr:ADaMSoft dbr:Additive_synthesis dbr:Analytics dbr:Dynamic_mode_decomposition dbr:ELKI dbr:Eran_Elhaik dbr:Ewin_Tang dbr:Facial_recognition_system dbr:Factor_analysis dbr:Financial_economics dbr:Financial_risk_management dbr:Non-linear_iterative_partial_least_squares dbr:North_Report dbr:Numerical_analysis dbr:Outline_of_finance dbr:PLINK_(genetic_tool-set) dbr:Palestinians dbr:Pansharpened_image dbr:Dialogical_self dbr:Diffusion_map dbr:Dimensionality_reduction dbr:Discriminative_model dbr:Flow_cytometry_bioinformatics dbr:Graciela_Boente dbr:Granular_computing dbr:Grape_seed_extract dbr:Histogram_of_oriented_gradients dbr:History_of_statistics dbr:Isomap dbr:List_of_MeSH_codes_(H01) dbr:Matrix_decomposition dbr:Quantile_regression_averaging dbr:Remote_sensing_(geology) dbr:Robust_principal_component_analysis dbr:Hans_von_Storch dbr:Harold_Hotelling dbr:Asteroid_spectral_types dbr:JASP dbr:Tapanuli_orangutan dbr:Tasseled_cap_transformation dbr:Tatuidris dbr:Covariance_matrix dbr:Hydrological_model dbr:ArrayTrack dbr:Achenbach_System_of_Empirically_Based_Assessment dbr:Affinity_propagation dbr:Kari_Karhunen dbr:Karl_Pearson dbr:L1-norm_principal_component_analysis dbr:Biological_motion_perception dbr:Biplot dbr:Codon_usage_bias dbr:Collaborative_filtering dbr:Eigenface dbr:Hi-C_(genomic_analysis_technique) dbr:Tucker_decomposition dbr:Whitening_transformation dbr:ZCA dbr:Modes_of_variation dbr:Psychological_statistics dbr:Surprisal_analysis dbr:Regime_shift dbr:Regularization_by_spectral_filtering dbr:Relationship_square dbr:Dikelocephalus dbr:Artemia_parthenogenetica dbr:Artificial_neuron dbr:Autoencoder dbr:Manidens dbr:Maniots dbr:CUR_matrix_approximation dbr:Finance dbr:Human_genetic_clustering dbr:Human_genetic_variation dbr:Idea_networking dbr:Kosambi–Karhunen–Loève_theorem dbr:Mia_Hubert dbr:Michael_E._Mann dbr:Brown-cheeked_fulvetta dbr:Neolithic_Greece dbr:OpenChrom dbr:Canonical_correlation dbr:Random_projection dbr:Lothian_birth-cohort_studies dbr:Model_order_reduction dbr:Multilinear_principal_component_analysis dbr:Multiple_correspondence_analysis dbr:Soft_independent_modelling_of_class_analogies dbr:Space-time_adaptive_processing dbr:Scale-invariant_feature_transform dbr:Solvent dbr:Statistical_shape_analysis dbr:NeuroSolutions dbr:Tag_SNP dbr:Trajectory_inference dbr:Expectation–maximization_algorithm dbr:Explained_variation dbr:Exploratory_data_analysis dbr:Extreme_learning_machine dbr:Face_space dbr:Facial_motion_capture dbr:Factorial_code dbr:Component_analysis dbr:Image_fusion dbr:List_of_statistics_articles dbr:Unsupervised_learning dbr:RV_coefficient dbr:Test_construction_strategies dbr:FitIt dbr:Reverse_image_search dbr:Phycotoxin dbr:Sammon_mapping dbr:ScGET-seq dbr:Multilinear_subspace_learning dbr:Multiple_factor_analysis dbr:Sparse_PCA dbr:Phylogenetic_inertia dbr:Sequence_space_(evolution) dbr:Weld_quality_assurance dbr:Single-cell_transcriptomics dbr:Nonlinear_dimensionality_reduction dbr:Raman_Tool_Set dbr:Split_normal_distribution dbr:The_Vectors_of_Mind dbr:PC1 dbr:PCoA dbr:Spatially_offset_Raman_spectroscopy dbr:PC² dbr:Outline_of_machine_learning dbr:Outline_of_statistics dbr:Parallel_analysis dbr:Peter_Greig-Smith dbr:Peter_Richtarik dbr:Tropical_Atlantic_SST_Dipole dbr:Range_imaging dbr:The_Unscrambler dbr:Varimax_rotation dbr:Sparse_dictionary_learning dbr:Types_of_artificial_neural_networks dbr:YCoCg dbr:Virtual_humans dbr:Principal_Component_Analysis dbr:Principal_Components_Analysis dbr:Principal_components_analysis dbr:Hotelling_transform dbr:Characteristic_vector_analysis dbr:Eigenimage dbr:Eigenvector_analysis |
is rdfs:seeAlso of | dbr:Factor_analysis |
is owl:differentFrom of | dbr:Component_analysis_(statistics) |
is foaf:primaryTopic of | wikipedia-en:Principal_component_analysis |