Linear regression (original) (raw)
الانحدار الخطي أو نموذج الانحدار الخطي أو النموذج الخطي في الإحصاء، هو نموذج إحصائي يستخدم في تفسير متغير عبر متغير آخر (أو مجموعة من المتغيرات ) وفق دالة خطية. يسمى المتغير بالتابع والمتغيرات بالمتغيرات المستقلة أو المفسرة، بمعنى أنها تفسر، إحصائيا، تغير المتغير التابع.
Property | Value |
---|---|
dbo:abstract | الانحدار الخطي أو نموذج الانحدار الخطي أو النموذج الخطي في الإحصاء، هو نموذج إحصائي يستخدم في تفسير متغير عبر متغير آخر (أو مجموعة من المتغيرات ) وفق دالة خطية. يسمى المتغير بالتابع والمتغيرات بالمتغيرات المستقلة أو المفسرة، بمعنى أنها تفسر، إحصائيا، تغير المتغير التابع. (ar) En estadística la regressió lineal o ajust lineal és un mètode estadístic que modelitza la relació entre una variable dependent Y, les variables independents X i i un terme aleatori ε, per trobar una funció lineal que s'ajusti al màxim a la distribució de punts generada per una variable de dues dimensions. Aquest model es pot expressar com: on és la intersecció amb l'eix d'ordenades o terme "constant", les (i> 0) són els paràmetres respectius a cada variable independent, i és el nombre de paràmetres independents que cal tenir en compte en la regressió. La regressió lineal pot ser comparada amb la regressió no lineal. (ca) Lineární regrese je matematická metoda používaná pro proložení souboru bodů v grafu přímkou. O bodech reprezentujících měřená data se předpokládá, že jejich x-ové souřadnice jsou přesné, zatímco ypsilonové souřadnice mohou být zatíženy náhodnou chybou, přičemž předpokládáme, že závislost y na x lze graficky vyjádřit přímkou. Pokud měřené body proložíme přímkou, tak při odečítání z grafu bude mezi ypsilonovou hodnotou měřeného bodu a ypsilonovou hodnotou ležící na přímce odchylka. Podstatou lineární regrese je nalezení takové přímky, aby součet druhých mocnin těchto odchylek byl co nejmenší. Lineární regresi lze zobecnit i pro prokládání jinou funkcí než přímkou. Termín lineární regrese proto může označovat dvě částečně odlišné věci: * Lineární regrese představuje aproximaci daných hodnot přímkou metodou nejmenších čtverců. Pokud tuto přímku vyjádříme rovnicí , jedná se o nalezení optimálních hodnot koeficientů a . * V obecnějším případě může lineární regrese znamenat aproximaci daných hodnot takovou funkcí , kterou lze vyjádřit jako lineární kombinaci funkcí f1 až fk: . Koeficienty se opět určují metodou nejmenších čtverců. Homoskedasticita (homogenita ve varianci) dat je běžným jevem. Avšak její předpoklad může vést k přecenění[zdroj?!] korelačního koeficientu. V jistých případech je tedy nutné uvážit heteroskedasticitu a použít váženou regresi. (cs) Στη στατιστική, η γραμμική παλινδρόμηση είναι μια προσέγγιση για τη μοντελοποίηση της σχέσης μεταξύ μιας βαθμωτής εξαρτημένης μεταβλητής Υ και μία ή περισσότερες επεξηγηματικές μεταβλητές (ή ανεξάρτητη μεταβλητή) συμβολίζεται X. Περίπτωση μιας επεξηγηματικής μεταβλητής ονομάζεται απλή γραμμική παλινδρόμηση. Για περισσότερες από μία επεξηγηματικές μεταβλητές, η διαδικασία ονομάζεται πολλαπλή γραμμική παλινδρόμηση.(Ο όρος αυτός θα πρέπει να διακρίνεται από πολυμεταβλητή γραμμική παλινδρόμηση, όπου πολλαπλά προβλέπουν συσχέτιση με εξαρτημένες μεταβλητές , αντί για μία ενιαία βαθμωτή μεταβλητή.) Στην γραμμική παλινδρόμηση, τα δεδομένα μοντελοποιούνται χρησιμοποιώντας γραμμικές λειτουργίες προγνωστικά, και οι άγνωστες παράμετροι μοντέλου υπολογίζονται από τα δεδομένα. Τέτοια μοντέλα καλούνται γραμμικά μοντέλα. Συνηθέστερα, η γραμμική παλινδρόμηση αναφέρεται σε ένα μοντέλο στο οποίο ο υποθετικός μέσος όρος του Υ δεδομένης της αξίας του Χ είναι μια συνάρτηση αφινικών Χ λιγότερο συχνά, όπου η γραμμική παλινδρόμηση μπορεί να αναφέρεται σε ένα μοντέλο στο οποίο η διάμεσος, ή κάποιο άλλο ποσοστημόριο της υποθετικής διανομής y που δίνεται X εκφράζεται ως γραμμική συνάρτηση του Χ Όπως όλες τις μορφές ανάλυσης παλινδρόμησης, η γραμμική παλινδρόμηση επικεντρώνεται στους όρους κατανομής πιθανότητας του y που δίνονται Χ αντί για την από κοινού πιθανότητα διανομής του Υ και Χ, η οποία είναι η και η περιοχή της πολυμεταβλητής ανάλυσης. Η γραμμική παλινδρόμηση ήταν ο πρώτος τύπος της ανάλυσης παλινδρόμησης που μελετήθηκε αυστηρά, και προορίζεται να χρησιμοποιηθεί εκτενώς σε πρακτικές εφαρμογές. Αυτό συμβαίνει επειδή τα μοντέλα που εξαρτώνται γραμμικά από άγνωστες παραμέτρους τους είναι πιο εύκολο να χωρέσουν από τα μοντέλα τα οποία είναι μη-γραμμικά με παραμέτρους τους και επειδή οι στατιστικές ιδιότητες των προκυπτόντων εκτιμήσεων είναι εύκολο να προσδιοριστεί. Η γραμμική παλινδρόμηση έχει πολλές πρακτικές χρήσεις. Οι περισσότερες εφαρμογές εμπίπτουν σε μία από τις ακόλουθες δύο ευρείες κατηγορίες: * Αν ο στόχος είναι η πρόβλεψη, ή η μείωση, η γραμμική παλινδρόμηση μπορεί να χρησιμοποιηθεί για να χωρέσει ένα προγνωστικό μοντέλο σε ένα παρατηρούμενο δεδομένο με Χ και Υ τιμές. Μετά από την ανάπτυξη ενός τέτοιου μοντέλου, μια πρόσθετη τιμή του Χ είναι τότε χωρίς την συνοδευτική αξία του y, όπου το μοντέλο μπορεί να χρησιμοποιηθεί για να κάνει μια πρόβλεψη της τιμής του y. * Δεδομένης μια μεταβλητής y και ενός αριθμού μεταβλητών X1, ..., Xp που μπορεί να σχετίζονται με το y,η ανάλυση γραμμικής παλινδρόμησης μπορεί να εφαρμοστεί στην ποσοτικοποίηση της αντοχής της σχέσης μεταξύ Υ και του χj , προκειμένου να αξιολογηθεί η οποία σχέση χj με y καθόλου, και να προσδιορίσει ποιες υποκατηγορίες του χj περιέχουν περιττές πληροφορίες σχετικά με τοy. Τα μοντέλα γραμμικής παλινδρόμησης συχνά χρησιμοποιούνται κατά την προσέγγιση λιγότερων τετραγώνων, αλλά μπορεί επίσης να χρησιμοποιηθεί με άλλους τρόπους, όπως με ελαχιστοποίηση της "έλλειψη προσαρμογής" σε κάποιο άλλο πρότυπο (όπως με τουλάχιστον παλινδρόμηση της απόλυτης αποκλίσεις). Αντιστρόφως, τουλάχιστον η προσέγγιση με τα τετράγωνα μπορεί να χρησιμοποιηθεί για να χωρέσει τα μοντέλα που δεν είναι γραμμικά μοντέλα. Έτσι, αν και οι όροι "ελαχίστων τετραγώνων" και "γραμμικό μοντέλο" συνδέονται στενά, δεν είναι συνώνυμοι. (el) Die lineare Regression (kurz: LR) ist ein Spezialfall der Regressionsanalyse, also ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären. Bei der linearen Regression wird dabei ein lineares Modell (kurz: LM) angenommen. Es werden also nur solche Zusammenhänge herangezogen, bei denen die abhängige Variable eine Linearkombination der Regressionskoeffizienten (aber nicht notwendigerweise der unabhängigen Variablen) ist. Der Begriff Regression bzw. Regression zur Mitte wurde vor allem durch den Statistiker Francis Galton geprägt. Sie ist optimal wenn die Summe der Fehlerquadrate niedrig ist (de) Estatistikan, karratu txikienen erregresio zuzena karratu txikienen erregresioz lortutako zuzena adierazten du. Aldagai independente bakarreko zuzena aztertuko da artikulu honetan, erregresio bakuna deiturikoa alegia. Aldagai independente bi edo gehiago direnean (erregresio anizkoitza deiturikoa), karratu txikienen erregresioaren bitartez, erregresio zuzena (bi aldagai independente) edo erregresio planoa (hiru aldagai independente edo gehiago) nola eratu eta aztertzen den jakiteko, ikus . (eu) In statistics, linear regression is a linear approach for modelling the relationship between a scalar response and one or more explanatory variables (also known as dependent and independent variables). The case of one explanatory variable is called simple linear regression; for more than one, the process is called multiple linear regression. This term is distinct from multivariate linear regression, where multiple correlated dependent variables are predicted, rather than a single scalar variable. In linear regression, the relationships are modeled using linear predictor functions whose unknown model parameters are estimated from the data. Such models are called linear models. Most commonly, the conditional mean of the response given the values of the explanatory variables (or predictors) is assumed to be an affine function of those values; less commonly, the conditional median or some other quantile is used. Like all forms of regression analysis, linear regression focuses on the conditional probability distribution of the response given the values of the predictors, rather than on the joint probability distribution of all of these variables, which is the domain of multivariate analysis. Linear regression was the first type of regression analysis to be studied rigorously, and to be used extensively in practical applications. This is because models which depend linearly on their unknown parameters are easier to fit than models which are non-linearly related to their parameters and because the statistical properties of the resulting estimators are easier to determine. Linear regression has many practical uses. Most applications fall into one of the following two broad categories: * If the goal is error reduction in prediction or forecasting, linear regression can be used to fit a predictive model to an observed data set of values of the response and explanatory variables. After developing such a model, if additional values of the explanatory variables are collected without an accompanying response value, the fitted model can be used to make a prediction of the response. * If the goal is to explain variation in the response variable that can be attributed to variation in the explanatory variables, linear regression analysis can be applied to quantify the strength of the relationship between the response and the explanatory variables, and in particular to determine whether some explanatory variables may have no linear relationship with the response at all, or to identify which subsets of explanatory variables may contain redundant information about the response. Linear regression models are often fitted using the least squares approach, but they may also be fitted in other ways, such as by minimizing the "lack of fit" in some other norm (as with least absolute deviations regression), or by minimizing a penalized version of the least squares cost function as in ridge regression (L2-norm penalty) and lasso (L1-norm penalty). Conversely, the least squares approach can be used to fit models that are not linear models. Thus, although the terms "least squares" and "linear model" are closely linked, they are not synonymous. (en) En statistiques, en économétrie et en apprentissage automatique, un modèle de régression linéaire est un modèle de régression qui cherche à établir une relation linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites explicatives. On parle aussi de modèle linéaire ou de modèle de régression linéaire. Parmi les modèles de régression linéaire, le plus simple est l'ajustement affine. Celui-ci consiste à rechercher la droite permettant d'expliquer le comportement d'une variable statistique y comme étant une fonction affine d'une autre variable statistique x. En général, le modèle de régression linéaire désigne un modèle dans lequel l'espérance conditionnelle de y connaissant x est une fonction affine des paramètres. Cependant, on peut aussi considérer des modèles dans lesquels c'est la médiane conditionnelle de y connaissant x ou n'importe quel quantile de la distribution de y connaissant x qui est une fonction affine des paramètres. Le modèle de régression linéaire est souvent estimé par la méthode des moindres carrés mais il existe aussi de nombreuses autres méthodes pour estimer ce modèle. On peut par exemple estimer le modèle par maximum de vraisemblance ou encore par inférence bayésienne. Bien qu'ils soient souvent présentés ensemble, le modèle linéaire et la méthode des moindres carrés ne désignent pas la même chose. Le modèle linéaire désigne une classe de modèles qui peuvent être estimés par un grand nombre de méthodes, et la méthode des moindres carrés désigne une méthode d'estimation. Elle peut être utilisée pour estimer différents types de modèles. (fr) En estadística, la regresión lineal o ajuste lineal es un modelo matemático usado para aproximar la relación de dependencia entre una variable dependiente , variables independientes con y un término aleatorio . Este método es aplicable en muchas situaciones en las que se estudia la relación entre dos o más variables o predecir un comportamiento, algunas incluso sin relación con la tecnología. En caso de que no se pueda aplicar un modelo de regresión a un estudio, se dice que no hay correlación entre las variables estudiadas. Este modelo puede ser expresado como: donde: * es la variable dependiente o variable de respuesta. * son las variables explicativas, independientes o regresoras. * son los parámetros del modelo, miden la influencia que las variables explicativas tienen sobre el regrediendo. el término es la intersección o término "constante", las son los parámetros respectivos a cada variable independiente, y es el número de parámetros independientes a tener en cuenta en la regresión. La regresión lineal puede ser contrastada con la regresión no lineal. (es) Dalam dunia matematika, tentu sudah tak asing lagi mendengar kata statistik. Pada statistik, regresi linear adalah suatu pendekatan untuk memantapkan hubungan antara satu atau lebih variabel dependen (regresi linear sederhana) dan juga variabel independen (regresi linear banyak). Salah satu aplikasi dari regresi linear adalah untuk melakukan prediksi berdasarkan data-data yang telah dimiliki sebelumnya. Dengan asumsi hubungan di antara variabel variabel tersebut, dapat didekati oleh suatu persamaan garis lurus, maka model yang mendekati hubungan antar variabel di data tersebut disebut sebagai pemantapan regresi linear. (in) La regressione formalizza e risolve il problema di una relazione funzionale tra variabili misurate sulla base di dati campionari estratti da un'ipotetica popolazione infinita. Originariamente Galton utilizzava il termine come sinonimo di correlazione, tuttavia oggi in statistica l'analisi della regressione è associata alla risoluzione del modello lineare. Per la loro versatilità, le tecniche della regressione lineare trovano impiego nel campo delle scienze applicate: astronomia, chimica, geologia, biologia, fisica, ingegneria, medicina, nonché nelle scienze sociali: economia, linguistica, psicologia e sociologia. Più formalmente, in statistica la regressione lineare rappresenta un metodo di stima del valore atteso condizionato di una variabile dipendente, o endogena, , dati i valori di altre variabili indipendenti, o esogene, : . L'uso dei termini endogeno/esogeno è talvolta criticato, in quanto implicherebbe una nozione di causalità che l'esistenza di una regressione non prevede; in determinati contesti, provocherebbe inoltre confusione, essendo ad esempio il concetto di in econometria formalmente definito tramite l'ipotesi di ortogonalità alla base delle proprietà statistiche della regressione lineare col metodo dei minimi quadrati. (it) 통계학에서 선형 회귀(線型回歸, 영어: linear regression)는 종속 변수 y와 한 개 이상의 독립 변수 (또는 설명 변수) X와의 선형 상관 관계를 모델링하는 회귀분석 기법이다. 한 개의 설명 변수에 기반한 경우에는 단순 선형 회귀(simple linear regression), 둘 이상의 설명 변수에 기반한 경우에는 다중 선형 회귀라고 한다. 선형 회귀는 선형 예측 함수를 사용해 회귀식을 모델링하며, 알려지지 않은 파라미터는 데이터로부터 추정한다. 이렇게 만들어진 회귀식을 선형 모델이라고 한다. 선형 회귀는 깊이있게 연구되고 널리 사용된 첫 번째 회귀분석 기법이다. 이는 알려지지 않은 파라미터에 대해 선형 관계를 갖는 모델을 세우는 것이, 비선형 관계를 갖는 모델을 세우는 것보다 용이하기 때문이다. 선형 회귀는 여러 사용 사례가 있지만, 대개 아래와 같은 두 가지 분류 중 하나로 요약할 수 있다. * 값을 예측하는 것이 목적일 경우, 선형 회귀를 사용해 데이터에 적합한 예측 모형을 개발한다. 개발한 선형 회귀식을 사용해 y가 없는 x값에 대해 y를 예측하기 위해 사용할 수 있다. * 종속 변수 y와 이것과 연관된 독립 변수 X1, ..., Xp가 존재하는 경우에, 선형 회귀 분석을 사용해 Xj와 y의 관계를 정량화할 수 있다. Xj는 y와 전혀 관계가 없을 수도 있고, 추가적인 정보를 제공하는 변수일 수도 있다. 일반적으로 최소제곱법(least square method)을 사용해 선형 회귀 모델을 세운다. 최소제곱법 외에 다른 기법으로도 선형 회귀 모델을 세울 수 있다. 손실 함수(loss fuction)를 최소화하는 방식으로 선형 회귀 모델을 세울 수도 있다. 최소제곱법은 선형 회귀 모델 뿐 아니라, 비선형 회귀 모델에도 적용할 수 있다. 최소제곱법과 선형 회귀는 가깝게 연관되어 있지만, 그렇다고 해서 동의어는 아니다. (ko) 線形回帰(せんけいかいき、英: linear regression)とは、説明変数(独立変数ともいう)に対して目的変数(従属変数、あるいは反応変数ともいう)が線形またはそれから近い値で表される状態。 線形回帰は統計学における回帰分析の一種であり、非線形回帰と対比される。また線形回帰のうち、説明変数が1つの場合を単純線形回帰、2つ以上の場合を重回帰と呼ばれる。 (ja) Inom statistik är multipel linjär regression en teknik med vilken man kan undersöka om det finns ett statistiskt samband mellan en responsvariabel (Y) och två eller flera förklarande variabler (X). Till sitt förfogande har man sammanhörande mätvärden på X- och Y-variablerna, och är intresserad av att undersöka huruvida följande linjära modell kan antas beskriva detta samband: I denna modell antas den sista termen vara en stokastisk variabel som är normalfördelad; som sådan beskriver den de små avvikelser mellan observerade Y-värden och de Y-värden som man förväntar sig att X-värdena skall ge upphov till, nämligen: Enkel linjär regression är ett specialfall av multipel linjär regression då man har en Y-variabel och endast en X-variabel: (sv) Regresja liniowa – w modelowaniu statystycznym, metody oparte o liniowe kombinacje zmiennych i parametrów dopasowujących model do danych. Dopasowana linia lub krzywa regresji reprezentuje oszacowaną wartość oczekiwaną zmiennej przy konkretnych wartościach innej zmiennej lub zmiennych W najprostszym przypadku dopasowana jest stała lub funkcja liniowa, na przykład: Zmienna jest tradycyjnie nazywana zmienną objaśnianą lub zależną. Zmienne nazywa się zmiennymi objaśniającymi lub niezależnymi. Zarówno zmienne objaśniane i objaśniające mogą być wielkościami skalarnymi lub wektorami. Regresja w ogólności to problem estymacji warunkowej wartości oczekiwanej. Regresja liniowa jest nazywana liniową, gdyż zakładanym modelem zależności między zmiennymi zależnymi a niezależnymi jest przekształcenie liniowe (afiniczne) względem parametrów, reprezentowane w przypadku wielowymiarowym przez macierz. (pl) Em estatística ou econometria, regressão linear é uma equação para se estimar a condicional (valor esperado) de uma variável y, dados os valores de algumas outras variáveis x. A regressão, em geral, tem como objectivo tratar de um valor que não se consegue estimar inicialmente. A regressão linear é chamada "linear" porque se considera que a relação da resposta às variáveis é uma função linear de alguns parâmetros. Os modelos de regressão que não são uma função linear dos parâmetros se chamam modelos de regressão não-linear. Sendo uma das primeiras formas de análise regressiva a ser estudada rigorosamente, é usada extensamente em aplicações práticas. Isso acontece porque modelos que dependem de forma linear dos seus parâmetros desconhecidos, são mais fáceis de ajustar que os modelos não-lineares aos seus parâmetros, e porque as propriedades estatísticas dos estimadores resultantes são fáceis de determinar. (pt) Линейная регрессия (англ. Linear regression) — используемая в статистике регрессионная модель зависимости одной (объясняемой, зависимой) переменной от другой или нескольких других переменных (факторов, регрессоров, независимых переменных) с линейной функцией зависимости. Модель линейной регрессии является часто используемой и наиболее изученной в эконометрике. А именно изучены свойства оценок параметров, получаемых различными методами при предположениях о вероятностных характеристиках факторов, и случайных ошибок модели. Предельные (асимптотические) свойства оценок нелинейных моделей также выводятся исходя из аппроксимации последних линейными моделями. С эконометрической точки зрения более важное значение имеет линейность по параметрам, чем линейность по факторам модели. (ru) У статистиці лінійна регресія — це метод моделювання залежності між скалярною змінною y та векторною (у загальному випадку) змінною X. У разі, якщо змінна X також є скаляром, регресію називають простою. При використанні лінійної регресії взаємозв'язок між даними моделюється за допомогою лінійних функцій, а невідомі параметри моделі оцінюються за вхідними даними. Подібно до інших методів регресійного аналізу лінійна регресія повертає розподіл умовної імовірності y в залежності від X, а не розподіл спільної імовірності y та X, що стосується області мультиваріативного аналізу. При розрахунках параметрів моделі лінійної регресії зазвичай застосовується метод найменших квадратів (МНК), але також можуть бути використані інші методи. Але метод найменших квадратів може бути використаний і для нелінійних моделей, тому МНК та лінійна регресія, хоч і є тісно пов'язаними, але не є синонімами. (uk) 在统计学中,线性回归(英語:linear regression)是利用称为线性回归方程的最小平方函數对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归(multivariable linear regression)。 在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。最常用的线性回归建模是给定X值的y的条件均值是X的仿射函数。不太一般的情况,线性回归模型可以是一个中位数或一些其他的给定X的条件下y的条件分布的分位数作为X的线性函数表示。像所有形式的回归分析一样,线性回归也把焦点放在给定X值的y的条件概率分布,而不是X和y的联合概率分布(多元分析领域)。 线性回归是回归分析中第一种经过严格研究并在实际应用中广泛使用的类型。这是因为线性依赖于其未知参数的模型比非线性依赖于其未知参数的模型更容易拟合,而且产生的估计的统计特性也更容易确定。 线性回归有很多实际用途。分为以下两大类: 1. * 如果目标是预测或者映射,线性回归可以用来对观测数据集的和X的值拟合出一个预测模型。当完成这样一个模型以后,对于一个新增的X值,在没有给定与它相配对的y的情况下,可以用这个拟合过的模型预测出一个y值。 2. * 给定一个变量y和一些变量,...,,这些变量有可能与y相关,线性回归分析可以用来量化y与Xj之间相关性的强度,评估出与y不相关的,并识别出哪些的子集包含了关于y的冗余信息。 线性回归模型经常用最小二乘逼近来拟合,但他们也可能用别的方法来拟合,比如用最小化“拟合缺陷”在一些其他规范里(比如最小绝对误差回归),或者在桥回归中最小化最小二乘损失函数的惩罚。相反,最小二乘逼近可以用来拟合那些非线性的模型。因此,尽管“最小二乘法”和“线性模型”是紧密相连的,但他们是不能划等号的。 (zh) |
dbo:thumbnail | wiki-commons:Special:FilePath/Linear_least_squares_example2.png?width=300 |
dbo:wikiPageExternalLink | http://www.incertitudes.fr/book.pdf https://phet.colorado.edu/en/simulation/least-squares-regression http://www.mugu.com/galton/essays/1880-1889/galton-1886-jaigi-regression-stature.pdf https://books.google.com/books%3Fid=98p4AgAAQBAJ&printsec=frontcover&dq=%22Applied+multiple+regression/correlation+analysis+for+the+behavioral+sciences%22&hl=en&sa=X&ved=0ahUKEwjRwv_Z79fiAhUB_1QKHdBQCgoQ6AEIKjAA%23v=onepage&q=%22Applied%20multiple%20regression%2Fcorrelation%20analysis%20for%20the%20behavioral%20sciences%22&f=false http://www.geocities.ws/diylf/DIYLF.html |
dbo:wikiPageID | 48758386 (xsd:integer) |
dbo:wikiPageLength | 66443 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1124084548 (xsd:integer) |
dbo:wikiPageWikiLink | dbr:Bayesian_linear_regression dbr:Bayesian_multivariate_linear_regression dbr:Bayesian_statistics dbc:Single-equation_methods_(econometrics) dbr:Probability_distribution dbr:Quantile dbr:Scalar_(mathematics) dbr:Exports dbr:Multinomial_distribution dbr:Multinomial_logistic_regression dbr:Multivariate_analysis dbr:M-estimator dbr:Time_series dbr:Non-identifiable dbr:Normal_equations dbr:Bernoulli_distribution dbr:Joint_probability_distribution dbr:Beta_(finance) dbr:Bias_of_an_estimator dbr:Response_modeling_methodology dbr:Ridge_regression dbr:Variance dbr:Dependent_and_independent_variables dbr:Design_matrix dbr:Design_of_experiments dbr:Dummy_variable_(statistics) dbr:Inventory_investment dbr:Standard_deviation dbr:Y-intercept dbr:Pearson_correlation dbr:Confounding dbr:Correlation dbr:Correlation_and_dependence dbr:Analysis_of_variance dbc:Parametric_statistics dbr:Maximum_likelihood_estimation dbr:Mean dbr:Median dbr:Errors_and_residuals dbr:Estimation_theory dbr:Gauss–Markov_theorem dbr:General_linear_model dbr:Generalized_linear_model dbr:Norm_(mathematics) dbr:Outlier dbr:Segmented_regression dbr:Projection_pursuit_regression dbr:Poisson_regression dbr:Quantile_regression dbr:Generalized_least_squares dbr:Morbidity dbr:Conditional_expectation dbr:Conditional_probability_distribution dbr:Consistent_estimator dbr:Consumption_(economics) dbr:Coordinate_vector dbr:Cross-sectional_regression dbr:Labour_economics dbr:Lack-of-fit_sum_of_squares dbr:Total_derivative dbr:Homoscedasticity dbr:Statistical_inference dbr:Ordered_logit dbr:Ordered_probit dbr:Observational_studies dbr:Benthic_zone dbr:Linear_equation dbr:Log-normal_distribution dbr:Logarithm dbr:Machine_learning dbc:Curve_fitting dbr:Simple_linear_regression dbr:Statistical_unit dbr:Statistics dbr:Deming_regression dbr:Dempster–Shafer_theory dbr:Empirical_Bayes_method dbr:Leona_S._Aiken dbr:Parametric_statistics dbr:Partial_derivative dbr:Partial_least_squares_regression dbr:Principal_component_regression dbr:Socioeconomic_status dbr:Linear_least_squares_(mathematics) dbc:Estimation_theory dbr:Transpose dbr:Data dbr:Data_set dbr:Categorical_data dbr:Errors-in-variables_model dbr:File:Anscombe's_quartet_3.svg dbr:Laplace_distribution dbr:Lasso_(statistics) dbr:Least-angle_regression dbr:Least_absolute_deviations dbr:Least_squares dbr:Line_fitting dbr:Linear_belief_function dbr:Linear_classifier dbr:Linear_combination dbr:Linear_function dbr:Linear_least_squares dbr:Linear_model dbr:Linear_predictor_function dbr:Linearity dbr:Logistic_regression dbr:Truncated_regression_model dbr:Adrien-Marie_Legendre dbr:Affine_transformation dbr:Curve_fitting dbr:Economics dbr:Errors-in-variables_models dbr:Euclidean_vector dbr:Expected_value dbr:Forecasting dbr:Normal_distribution dbr:Parameter dbr:Capital_asset_pricing_model dbr:Censored_regression_model dbr:Principal_component_analysis dbr:Standard_gravity dbr:Nonlinear_regression dbr:Nonparametric_regression dbr:Prediction dbr:Random_variable dbr:Randomized_controlled_trial dbr:Regression_analysis dbr:Regularization_(mathematics) dbr:Robust_regression dbr:Stepwise_regression dbr:Heteroscedasticity-consistent_standard_errors dbr:Covariance_matrix dbr:Fixed_effects_estimation dbr:Standard_deviation_line dbr:Artificial_intelligence dbr:Charles_Darwin dbr:Binomial_distribution dbr:Blinder–Oaxaca_decomposition dbr:Support_vector_machine dbr:Efficiency_(statistics) dbr:Hessian_matrix dbr:Theil–Sen_estimator dbr:Mixed_model dbr:Poisson_distribution dbr:Polynomial dbr:Special_case dbr:Imports dbr:Independence_(probability_theory) dbr:Inner_product dbr:Ordinal_data dbr:Ordinary_least_squares dbr:Categorical_distribution dbr:Matrix_calculus dbr:Loss_function dbr:Mean_squared_error dbr:Multicollinearity dbr:Sampling_(statistics) dbr:Tobacco_smoking dbr:Variance_inflation_factor dbr:Weighted_least_squares dbr:Fixed_investment dbr:Heteroscedasticity dbr:Multinomial_probit dbr:Multivariate_adaptive_regression_spline dbr:Multivector dbr:Polynomial_regression dbr:Parameters dbr:Overfitting dbr:Supervised_learning dbr:Spurious_correlation dbr:Structural_break dbr:PhET dbr:Gauss dbr:Independent_random_variables dbr:Quetelet dbr:Skewed_distribution dbr:Matrix_notation dbr:Hierarchical_linear_models dbr:Labor_supply dbr:Least_absolute_deviation dbr:Prior_distribution dbr:Probit_regression dbr:Instrumental_variables dbr:Lasso_regression dbr:Posterior_distribution dbr:Column_rank dbr:Her_Majesty's_Stationery_Office dbr:Money_demand dbr:Multivariate_linear_regression dbr:Overfit dbr:File:Independence_of_Errors_Assumption_for_Linear_Regressions.png dbr:File:Linear_least_squares_example2.png dbr:File:Polyreg_scheffe.svg dbr:File:Linear_regression.svg dbr:File:Thiel-Sen_estimator.svg dbr:File:Galton's_correlation_diagram_1875.jpg |
dbp:date | May 2018 (en) |
dbp:reason | "error reduction" in what sense? (en) |
dbp:wikiPageUsesTemplate | dbt:Regression_bar dbt:Anchor dbt:Citation_needed dbt:Cite_book dbt:Clarify dbt:Commons_category dbt:Div_col dbt:Div_col_end dbt:Expand_section dbt:Main dbt:Portal dbt:Refbegin dbt:Refend dbt:Reflist dbt:See_also dbt:Short_description dbt:Wikibooks dbt:Wikiversity dbt:Least_Squares_and_Regression_Analysis dbt:Statistics |
dcterms:isPartOf | http://zbw.eu/stw/mapping/dbpedia/target |
dcterms:subject | dbc:Single-equation_methods_(econometrics) dbc:Parametric_statistics dbc:Curve_fitting dbc:Estimation_theory |
gold:hypernym | dbr:Approach |
rdf:type | owl:Thing dbo:ProgrammingLanguage |
rdfs:comment | الانحدار الخطي أو نموذج الانحدار الخطي أو النموذج الخطي في الإحصاء، هو نموذج إحصائي يستخدم في تفسير متغير عبر متغير آخر (أو مجموعة من المتغيرات ) وفق دالة خطية. يسمى المتغير بالتابع والمتغيرات بالمتغيرات المستقلة أو المفسرة، بمعنى أنها تفسر، إحصائيا، تغير المتغير التابع. (ar) Die lineare Regression (kurz: LR) ist ein Spezialfall der Regressionsanalyse, also ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären. Bei der linearen Regression wird dabei ein lineares Modell (kurz: LM) angenommen. Es werden also nur solche Zusammenhänge herangezogen, bei denen die abhängige Variable eine Linearkombination der Regressionskoeffizienten (aber nicht notwendigerweise der unabhängigen Variablen) ist. Der Begriff Regression bzw. Regression zur Mitte wurde vor allem durch den Statistiker Francis Galton geprägt. Sie ist optimal wenn die Summe der Fehlerquadrate niedrig ist (de) Estatistikan, karratu txikienen erregresio zuzena karratu txikienen erregresioz lortutako zuzena adierazten du. Aldagai independente bakarreko zuzena aztertuko da artikulu honetan, erregresio bakuna deiturikoa alegia. Aldagai independente bi edo gehiago direnean (erregresio anizkoitza deiturikoa), karratu txikienen erregresioaren bitartez, erregresio zuzena (bi aldagai independente) edo erregresio planoa (hiru aldagai independente edo gehiago) nola eratu eta aztertzen den jakiteko, ikus . (eu) Dalam dunia matematika, tentu sudah tak asing lagi mendengar kata statistik. Pada statistik, regresi linear adalah suatu pendekatan untuk memantapkan hubungan antara satu atau lebih variabel dependen (regresi linear sederhana) dan juga variabel independen (regresi linear banyak). Salah satu aplikasi dari regresi linear adalah untuk melakukan prediksi berdasarkan data-data yang telah dimiliki sebelumnya. Dengan asumsi hubungan di antara variabel variabel tersebut, dapat didekati oleh suatu persamaan garis lurus, maka model yang mendekati hubungan antar variabel di data tersebut disebut sebagai pemantapan regresi linear. (in) 線形回帰(せんけいかいき、英: linear regression)とは、説明変数(独立変数ともいう)に対して目的変数(従属変数、あるいは反応変数ともいう)が線形またはそれから近い値で表される状態。 線形回帰は統計学における回帰分析の一種であり、非線形回帰と対比される。また線形回帰のうち、説明変数が1つの場合を単純線形回帰、2つ以上の場合を重回帰と呼ばれる。 (ja) En estadística la regressió lineal o ajust lineal és un mètode estadístic que modelitza la relació entre una variable dependent Y, les variables independents X i i un terme aleatori ε, per trobar una funció lineal que s'ajusti al màxim a la distribució de punts generada per una variable de dues dimensions. Aquest model es pot expressar com: (ca) Lineární regrese je matematická metoda používaná pro proložení souboru bodů v grafu přímkou. O bodech reprezentujících měřená data se předpokládá, že jejich x-ové souřadnice jsou přesné, zatímco ypsilonové souřadnice mohou být zatíženy náhodnou chybou, přičemž předpokládáme, že závislost y na x lze graficky vyjádřit přímkou. Pokud měřené body proložíme přímkou, tak při odečítání z grafu bude mezi ypsilonovou hodnotou měřeného bodu a ypsilonovou hodnotou ležící na přímce odchylka. Podstatou lineární regrese je nalezení takové přímky, aby součet druhých mocnin těchto odchylek byl co nejmenší. Lineární regresi lze zobecnit i pro prokládání jinou funkcí než přímkou. Termín lineární regrese proto může označovat dvě částečně odlišné věci: (cs) Στη στατιστική, η γραμμική παλινδρόμηση είναι μια προσέγγιση για τη μοντελοποίηση της σχέσης μεταξύ μιας βαθμωτής εξαρτημένης μεταβλητής Υ και μία ή περισσότερες επεξηγηματικές μεταβλητές (ή ανεξάρτητη μεταβλητή) συμβολίζεται X. Περίπτωση μιας επεξηγηματικής μεταβλητής ονομάζεται απλή γραμμική παλινδρόμηση. Για περισσότερες από μία επεξηγηματικές μεταβλητές, η διαδικασία ονομάζεται πολλαπλή γραμμική παλινδρόμηση.(Ο όρος αυτός θα πρέπει να διακρίνεται από πολυμεταβλητή γραμμική παλινδρόμηση, όπου πολλαπλά προβλέπουν συσχέτιση με εξαρτημένες μεταβλητές , αντί για μία ενιαία βαθμωτή μεταβλητή.) (el) En estadística, la regresión lineal o ajuste lineal es un modelo matemático usado para aproximar la relación de dependencia entre una variable dependiente , variables independientes con y un término aleatorio . Este método es aplicable en muchas situaciones en las que se estudia la relación entre dos o más variables o predecir un comportamiento, algunas incluso sin relación con la tecnología. En caso de que no se pueda aplicar un modelo de regresión a un estudio, se dice que no hay correlación entre las variables estudiadas. Este modelo puede ser expresado como: donde: (es) In statistics, linear regression is a linear approach for modelling the relationship between a scalar response and one or more explanatory variables (also known as dependent and independent variables). The case of one explanatory variable is called simple linear regression; for more than one, the process is called multiple linear regression. This term is distinct from multivariate linear regression, where multiple correlated dependent variables are predicted, rather than a single scalar variable. (en) En statistiques, en économétrie et en apprentissage automatique, un modèle de régression linéaire est un modèle de régression qui cherche à établir une relation linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites explicatives. On parle aussi de modèle linéaire ou de modèle de régression linéaire. Parmi les modèles de régression linéaire, le plus simple est l'ajustement affine. Celui-ci consiste à rechercher la droite permettant d'expliquer le comportement d'une variable statistique y comme étant une fonction affine d'une autre variable statistique x. (fr) La regressione formalizza e risolve il problema di una relazione funzionale tra variabili misurate sulla base di dati campionari estratti da un'ipotetica popolazione infinita. Originariamente Galton utilizzava il termine come sinonimo di correlazione, tuttavia oggi in statistica l'analisi della regressione è associata alla risoluzione del modello lineare. Per la loro versatilità, le tecniche della regressione lineare trovano impiego nel campo delle scienze applicate: astronomia, chimica, geologia, biologia, fisica, ingegneria, medicina, nonché nelle scienze sociali: economia, linguistica, psicologia e sociologia. (it) 통계학에서 선형 회귀(線型回歸, 영어: linear regression)는 종속 변수 y와 한 개 이상의 독립 변수 (또는 설명 변수) X와의 선형 상관 관계를 모델링하는 회귀분석 기법이다. 한 개의 설명 변수에 기반한 경우에는 단순 선형 회귀(simple linear regression), 둘 이상의 설명 변수에 기반한 경우에는 다중 선형 회귀라고 한다. 선형 회귀는 선형 예측 함수를 사용해 회귀식을 모델링하며, 알려지지 않은 파라미터는 데이터로부터 추정한다. 이렇게 만들어진 회귀식을 선형 모델이라고 한다. 선형 회귀는 깊이있게 연구되고 널리 사용된 첫 번째 회귀분석 기법이다. 이는 알려지지 않은 파라미터에 대해 선형 관계를 갖는 모델을 세우는 것이, 비선형 관계를 갖는 모델을 세우는 것보다 용이하기 때문이다. 선형 회귀는 여러 사용 사례가 있지만, 대개 아래와 같은 두 가지 분류 중 하나로 요약할 수 있다. (ko) Regresja liniowa – w modelowaniu statystycznym, metody oparte o liniowe kombinacje zmiennych i parametrów dopasowujących model do danych. Dopasowana linia lub krzywa regresji reprezentuje oszacowaną wartość oczekiwaną zmiennej przy konkretnych wartościach innej zmiennej lub zmiennych W najprostszym przypadku dopasowana jest stała lub funkcja liniowa, na przykład: Zmienna jest tradycyjnie nazywana zmienną objaśnianą lub zależną. Zmienne nazywa się zmiennymi objaśniającymi lub niezależnymi. Zarówno zmienne objaśniane i objaśniające mogą być wielkościami skalarnymi lub wektorami. (pl) Em estatística ou econometria, regressão linear é uma equação para se estimar a condicional (valor esperado) de uma variável y, dados os valores de algumas outras variáveis x. A regressão, em geral, tem como objectivo tratar de um valor que não se consegue estimar inicialmente. (pt) Линейная регрессия (англ. Linear regression) — используемая в статистике регрессионная модель зависимости одной (объясняемой, зависимой) переменной от другой или нескольких других переменных (факторов, регрессоров, независимых переменных) с линейной функцией зависимости. (ru) Inom statistik är multipel linjär regression en teknik med vilken man kan undersöka om det finns ett statistiskt samband mellan en responsvariabel (Y) och två eller flera förklarande variabler (X). Till sitt förfogande har man sammanhörande mätvärden på X- och Y-variablerna, och är intresserad av att undersöka huruvida följande linjära modell kan antas beskriva detta samband: Enkel linjär regression är ett specialfall av multipel linjär regression då man har en Y-variabel och endast en X-variabel: (sv) У статистиці лінійна регресія — це метод моделювання залежності між скалярною змінною y та векторною (у загальному випадку) змінною X. У разі, якщо змінна X також є скаляром, регресію називають простою. При використанні лінійної регресії взаємозв'язок між даними моделюється за допомогою лінійних функцій, а невідомі параметри моделі оцінюються за вхідними даними. Подібно до інших методів регресійного аналізу лінійна регресія повертає розподіл умовної імовірності y в залежності від X, а не розподіл спільної імовірності y та X, що стосується області мультиваріативного аналізу. (uk) 在统计学中,线性回归(英語:linear regression)是利用称为线性回归方程的最小平方函數对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归(multivariable linear regression)。 在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。最常用的线性回归建模是给定X值的y的条件均值是X的仿射函数。不太一般的情况,线性回归模型可以是一个中位数或一些其他的给定X的条件下y的条件分布的分位数作为X的线性函数表示。像所有形式的回归分析一样,线性回归也把焦点放在给定X值的y的条件概率分布,而不是X和y的联合概率分布(多元分析领域)。 线性回归是回归分析中第一种经过严格研究并在实际应用中广泛使用的类型。这是因为线性依赖于其未知参数的模型比非线性依赖于其未知参数的模型更容易拟合,而且产生的估计的统计特性也更容易确定。 线性回归有很多实际用途。分为以下两大类: (zh) |
rdfs:label | انحدار خطي (ar) Regressió lineal (ca) Lineární regrese (cs) Lineare Regression (de) Γραμμική παλινδρόμηση (el) Regresión lineal (es) Karratu txikienen erregresio zuzen (eu) Régression linéaire (fr) Regresi linear (in) Regressione lineare (it) Linear regression (en) 線形回帰 (ja) 선형 회귀 (ko) Regresja liniowa (pl) Regressão linear (pt) Линейная регрессия (ru) Multipel linjär regression (sv) Лінійна регресія (uk) 線性回歸 (zh) |
rdfs:seeAlso | dbr:Linear_least_squares dbr:Ordinary_least_squares |
owl:sameAs | freebase:Linear regression wikidata:Linear regression wikidata:Linear regression dbpedia-ar:Linear regression http://ast.dbpedia.org/resource/Regresión_llinial dbpedia-ca:Linear regression http://ckb.dbpedia.org/resource/پاشۆچوونی_ھێڵی dbpedia-cs:Linear regression dbpedia-de:Linear regression dbpedia-el:Linear regression dbpedia-es:Linear regression dbpedia-et:Linear regression dbpedia-eu:Linear regression dbpedia-fa:Linear regression dbpedia-fi:Linear regression dbpedia-fr:Linear regression dbpedia-gl:Linear regression dbpedia-he:Linear regression http://hi.dbpedia.org/resource/रैखिक_समाश्रयण dbpedia-hr:Linear regression dbpedia-hu:Linear regression http://hy.dbpedia.org/resource/Գծային_ռեգրեսիա dbpedia-id:Linear regression dbpedia-it:Linear regression dbpedia-ja:Linear regression dbpedia-ko:Linear regression dbpedia-mk:Linear regression dbpedia-ms:Linear regression dbpedia-no:Linear regression dbpedia-pl:Linear regression dbpedia-pt:Linear regression dbpedia-ru:Linear regression dbpedia-simple:Linear regression dbpedia-sl:Linear regression dbpedia-sr:Linear regression dbpedia-sv:Linear regression dbpedia-uk:Linear regression dbpedia-vi:Linear regression dbpedia-zh:Linear regression https://global.dbpedia.org/id/9wRZ |
skos:closeMatch | http://zbw.eu/stw/descriptor/15336-6 |
prov:wasDerivedFrom | wikipedia-en:Linear_regression?oldid=1124084548&ns=0 |
foaf:depiction | wiki-commons:Special:FilePath/Galton's_correlation_diagram_1875.jpg wiki-commons:Special:FilePath/Linear_regression.svg wiki-commons:Special:FilePath/Anscombe's_quartet_3.svg wiki-commons:Special:FilePath/Thiel-Sen_estimator.svg wiki-commons:Special:FilePath/Polyreg_scheffe.svg wiki-commons:Special:FilePath/Independence_of_Errors_Assumption_for_Linear_Regressions.png wiki-commons:Special:FilePath/Linear_least_squares_example2.png |
foaf:isPrimaryTopicOf | wikipedia-en:Linear_regression |
is dbo:wikiPageDisambiguates of | dbr:Regression dbr:Linear_regression_(disambiguation) |
is dbo:wikiPageRedirects of | dbr:Linear_Regression dbr:Linear_trend dbr:Multiple_linear_regression dbr:Unweighted_linear_regression dbr:Line_of_regression dbr:Line_regression dbr:Linear_fit dbr:Linear_modeling dbr:Linear_regression_equation dbr:Linear_regression_model dbr:Linear_weights dbr:Disturbance_term dbr:Regression_Coefficient dbr:Regression_coefficient dbr:Regression_coefficients dbr:Regression_intercept dbr:Regression_line dbr:Regression_slope dbr:Coefficient_of_regression dbr:Error_variable dbr:Best_fit_line dbr:Multi-linear_regression |
is dbo:wikiPageWikiLink of | dbr:Calibration_curve dbr:Bayesian_linear_regression dbr:Bayesian_multivariate_linear_regression dbr:Pseudo-R-squared dbr:Elaine_Martin dbr:Elastic_net_regularization dbr:Ensemble_forecasting dbr:Moderation_(statistics) dbr:Numerical_linear_algebra dbr:Metabolic_Score_for_Insulin_Resistance dbr:Metalog_distribution dbr:Path_coefficient dbr:Slope_One dbr:Park_test dbr:Partial_correlation dbr:Partial_least_squares_path_modeling dbr:Partial_regression_plot dbr:Partial_residual_plot dbr:Patlak_plot dbr:Variance_function dbr:Time_series dbr:1929_in_science dbr:Beryl_May_Dent dbr:Bioconductor dbr:Deal_or_No_Deal dbr:Anscombe's_quartet dbr:Arbitrage_pricing_theory dbr:Hockey_stick_graph_(global_temperature) dbr:How_Not_to_Be_Wrong dbr:Hubbert_linearization dbr:John_Nelder dbr:John_Tukey dbr:Beta_(finance) dbr:Resampling_(statistics) dbr:Ridge_regression dbr:Udny_Yule dbr:Variance dbr:Vertica dbr:Virial_expansion dbr:David_Berri dbr:Degrees_of_freedom_(statistics) dbr:Dependent_and_independent_variables dbr:Design_effect dbr:Design_for_Six_Sigma dbr:Design_matrix dbr:Douglas_sea_scale dbr:Incremental_validity dbr:Integral_nonlinearity dbr:Intensity_of_counting_processes dbr:Interatomic_potential dbr:James–Stein_estimator dbr:Jamovi dbr:Leverage_(statistics) dbr:Nuisance_parameter dbr:Numerical_methods_for_linear_least_squares dbr:Predictive_methods_for_surgery_duration dbr:Preston_curve dbr:Scheffé's_method dbr:Proper_linear_model dbr:Robust_Regression_and_Outlier_Detection dbr:Commonality_analysis dbr:Cross_entropy dbr:Analyse-it dbr:Analysis_of_variance dbr:MaxStat dbr:Maximum_likelihood_estimation dbr:MedCalc dbr:Median dbr:Ruth_C._Silva dbr:Chi-squared_distribution dbr:Error_term dbr:Errors_and_residuals dbr:Gauss–Markov_theorem dbr:General_linear_model dbr:Generalized_canonical_correlation dbr:Generalized_linear_model dbr:GeoDa dbr:Omitted-variable_bias dbr:Segmented_regression dbr:Spectral_slope dbr:Regression_dilution dbr:Coefficient_of_determination dbr:Cointegration dbr:Frank_Anscombe dbr:Functional_data_analysis dbr:Functional_regression dbr:Generalized_least_squares dbr:Glucommander dbr:Goldilocks_principle dbr:Grace_(plotting_tool) dbr:Bradford_protein_assay dbr:Misuse_of_statistics dbr:Moment_matrix dbr:Multivariate_random_variable dbr:Concepts_and_Techniques_in_Modern_Geography dbr:Conceptual_model dbr:Concurrent_validity dbr:Condition_number dbr:Conditional_change_model dbr:Conditional_expectation dbr:Confidence_region dbr:Conjoint_analysis dbr:Contrast_(statistics) dbr:Cross-sectional_regression dbr:Cross-validation_(statistics) dbr:LIMDEP dbr:Lack-of-fit_sum_of_squares dbr:Statistical_inference dbr:Apache_Spark dbr:Berlin_procedure dbr:Likelihood_function dbr:Linear_algebra dbr:Machine_learning dbr:Malmquist_bias dbr:Calculation_of_glass_properties dbr:Calibration_(statistics) dbr:Chow_test dbr:Simple_linear_regression dbr:Standardized_coefficient dbr:Statistical_model dbr:Statistics dbr:Clausius–Clapeyron_relation dbr:Computer_Othello dbr:Empirical_dynamic_modeling dbr:Fatigue_(material) dbr:Feature_(machine_learning) dbr:Federated_learning dbr:Frisch–Waugh–Lovell_theorem dbr:Functional_integration_(neurobiology) dbr:Helmert–Wolf_blocking dbr:Leona_S._Aiken dbr:Less-is-more_effect dbr:Pacific_Meridional_Mode dbr:Partial_least_squares_regression dbr:Passenger_car_equivalent dbr:Pattern_recognition dbr:Piecewise_linear_function dbr:Principal_component_regression dbr:Probability_of_default dbr:Mahalanobis_distance dbr:Stability_(learning_theory) dbr:Synthetic_data dbr:Total_least_squares dbr:Total_sum_of_squares dbr:Marketing dbr:Mathematical_statistics dbr:Matrilocal_residence dbr:Mean_and_predicted_response dbr:Mean_signed_deviation dbr:Single-equation_methods_(econometrics) dbr:Autoregressive_integrated_moving_average dbr:Bachelor_of_Economics dbr:Active_return dbr:Additive_model dbr:Causality dbr:Trends_in_International_Mathematics_and_Science_Study dbr:Data_dredging dbr:Distributed_lag dbr:Drug_design dbr:Futile_medical_care dbr:Glass_batch_calculation dbr:HP-22 dbr:Joint_Monitoring_Programme_for_Water_Supply_and_Sanitation dbr:Landscape_genetics dbr:Lasso_(statistics) dbr:Least-angle_regression dbr:Least-squares_spectral_analysis dbr:Linear_classifier dbr:Linear_discriminant_analysis dbr:Linear_least_squares dbr:Linear_model dbr:Linear_predictor_function dbr:Linear_probability_model dbr:Log-linear_model dbr:Logan_plot dbr:Logistello dbr:Logistic_distribution dbr:Logistic_model_tree dbr:Logistic_regression dbr:Log–log_plot dbr:ADaMSoft dbr:Adrien-Marie_Legendre dbr:Akaike_information_criterion dbr:DAP_(software) dbr:Data_transformation_(statistics) dbr:Ewin_Tang dbr:Breusch–Godfrey_test dbr:Breusch–Pagan_test dbr:Pandas_(software) dbr:Paranthropus_robustus dbr:Partition_coefficient dbr:Censored_regression_model dbr:Central_composite_design dbr:Digital_media_use_and_mental_health dbr:Discriminative_model dbr:Fast_Kalman_filter dbr:Fraction_of_variance_unexplained dbr:Isotonic_regression dbr:Item-item_collaborative_filtering dbr:Iteratively_reweighted_least_squares dbr:Leeway dbr:Stochastic_gradient_descent dbr:Nonlinear_regression dbr:Nonparametric_regression dbr:Prediction dbr:Projection_(linear_algebra) dbr:Quantified_self dbr:Real-time_clock dbr:Real-time_polymerase_chain_reaction dbr:Receptive_field dbr:Regression dbr:Regression_analysis dbr:Regression_toward_the_mean dbr:Residual_sum_of_squares dbr:Stimulus–response_model dbr:Greenhouse_gas_emissions_by_Turkey dbr:HP_35s dbr:HeuristicLab dbr:Atmospheric_sounding dbr:JASP dbr:James_David_Forbes dbr:Hydrological_model dbr:Wind_resource_assessment dbr:ADALINE dbr:Adversarial_machine_learning dbr:Cheyne–Stokes_respiration dbr:Karl_Pearson dbr:Kenneth_D._West dbr:Binary_regression dbr:Biological_network_inference dbr:Ecological_regression dbr:Econometric_model dbr:Econometrics dbr:Economic_stability dbr:Economics_education dbr:Effect_of_caffeine_on_memory dbr:Heritability dbr:Heteroskedasticity-consistent_standard_errors dbr:High-dimensional_statistics dbr:Trend_line dbr:Weight_function dbr:Mixed_model dbr:Statistical_data_type dbr:Zhang_Zhaohuan dbr:Statistical_assumption dbr:Diprotodon dbr:Divergence_(statistics) dbr:Australian_Height_Datum dbr:Automated_essay_scoring dbr:Mark_McClellan dbr:Bootstrap_aggregating dbr:Business_mathematics dbr:COMPAS_(software) dbr:Spartan_(chemistry_software) dbr:Greek_letters_used_in_mathematics,_science,_and_engineering dbr:Grey_box_model dbr:Z-HIT dbr:MicroPro_International dbr:Negative_binomial_distribution dbr:Optimal_instruments dbr:Ordinary_least_squares dbr:RATS_(software) dbr:Ramsey_RESET_test dbr:Certified_reference_materials dbr:Semi-variable_cost dbr:Mallows's_Cp dbr:Loss_function dbr:MLR dbr:Marketing_mix_modeling dbr:Mean_squared_error dbr:Model_output_statistics dbr:Moving-average_model dbr:Multicollinearity dbr:Spike-triggered_average dbr:Scatter_plot dbr:Score_test dbr:Sensitivity_analysis dbr:Sholl_analysis dbr:Variance_inflation_factor dbr:Volterra_series dbr:Weighted_least_squares dbr:Near-infrared_spectroscopy dbr:Newey–West_estimator dbr:European_Lifelong_Learning_Indicators dbr:Expectation–maximization_algorithm dbr:Explained_variation dbr:Exponential_family_random_graph_models dbr:Exponential_growth dbr:List_of_statistics_articles dbr:Linear_regression_(disambiguation) dbr:Statistical_learning_theory dbr:Scoring_functions_for_docking dbr:Polynomial_and_rational_function_modeling dbr:Pure_play dbr:Small_area_estimation dbr:Linear_Regression dbr:Linear_trend dbr:Multiple_linear_regression dbr:Trend-stationary_process dbr:Gibbs_sampling |
is rdfs:seeAlso of | dbr:Linear_least_squares dbr:Data_transformation_(statistics) dbr:Ordinary_least_squares |
is foaf:primaryTopic of | wikipedia-en:Linear_regression |