Least squares (original) (raw)

About DBpedia

La méthode des moindres carrés, indépendamment élaborée par Legendre et Gauss au début du XIXe siècle, permet de comparer des données expérimentales, généralement entachées d’erreurs de mesure, à un modèle mathématique censé décrire ces données. Ce modèle peut prendre diverses formes. Il peut s’agir de lois de conservation que les quantités mesurées doivent respecter. La méthode des moindres carrés permet alors de minimiser l’impact des erreurs expérimentales en « ajoutant de l’information » dans le processus de mesure.

thumbnail

Property Value
dbo:abstract طريقة المربعات الصغرى أو الدنيا (بالإنجليزية: Least squares)‏ هي مقاربة رئيسية تستعمل في احصاء، وبالتحديد في تحليل الانحدار.تهدف إلى تقدير خط الانحدار الذي يؤدي إلى تقليل مجموع الانحرافات الرئيسية أو الأخطاء الواردة في النقاط التي تمت ملاحظتها في أي يتم التقليل من مجموع مربعات الفروق بين القيم الفعلية والقيم المحسوبة.ويمكن القول أيضا انها طريقة تقريب قياسية تستخدم لحل أنظمة المعادلات التي يكون فيها عدد المعادلات أكبر من عدد المتغيرات. «المربعات الدنيا» تعني بأن الحل الكلي يتجه نحو تصغير قيمة مجموع مربعات الخطأ الناتج عن حل كل معادلة. من أهم التطبيقات هو الإسقاط الشكلي للبيانات (data fitting). حيث أن أفضل إسقاط شكلي لمجموعة بيانات يتجه نحو تصغير مجموع مربعات الأخطاء، حيث أن الخطأ هو الفرق بين القيمة المقاسة للبيانات والقيمة المسقطة على الشكل. تم وصف مسألة المربعات الدنيا للمرة الأولى من قبل كارل غاوس حوالي عام 1794. (ar) Metoda nejmenších čtverců je matematicko-statistická metoda pro aproximaci řešení přeurčených soustav rovnic (tj. soustav, kde je více rovnic, než neznámých). „Nejmenší čtverce“ znamenají, že výsledné řešení má minimalizovat součet čtverců odchylek vůči každé rovnici. Metoda je v základní podobě určená pro řešení nekompatibilních soustav lineárních rovnic (v obecnější podobě hovoříme o ), díky čemuž je fakticky ekvivalentní tzv. lineární regresi. S nejjednodušší aplikací metody nejmenších čtverců se setkáváme například při prokládání (aproximaci) naměřených jednorozměrných dat přímkou. Nepatrně složitější aplikací je proložení dat parabolou, obecným polynomem předem daného stupně, nebo obecnou lineární kombinací předem daných bázových funkcí. Fakt, že proložení dat polynomem libovolného, ale předem daného stupně je stále lineární regresí, je častým zdrojem nedorozumění a terminologických nejasností. Další jednoduchou aplikací je nalezení nejpravděpodobnějšího průsečíku několika přímek (jejichž matematický popis je zatížen chybou) v rovině. Metoda nejmenších čtverců má velmi mnoho dalších aplikací v nejširším okruhu vědních oborů, ve kterých se setkáváme s nepřesnými daty, od statistiky a ekonomie, přes geodézii až po zpracování signálů a teorii řízení. Obecně metoda nejmenších čtverců slouží k eliminaci chyb, kterou provádí optimálně vzhledem k pevně danému jednoznačnému kritériu (viz níže). Optimálně eliminovat chyby v datech lze i vzhledem k jiným kriteriím, takový postup může vést na metody převoditelné na metodu nejmenších čtverců (při použití různých typů vážení, např. když je známo, že chyba některých měření se výrazně liší od zbytku), nebo na metody obecně nepřevoditelné (nebo obtížně převoditelné) na metodu nejmenších čtverců (např. úplný problém nejmenších čtverců). (cs) El mètode de mínims quadrats és el procediment matemàtic estàndard per a l'. Donat un núvol de punts corresponent a les dades es busca una corba que passi tan a prop com sigui possible dels punts de les dades. Les dades poden representar mesures físiques, valors econòmics o similars, mentre que la corba pertany a una família de corbes paramètriques adequada al problema que es pretén modelitzar. El mètode dels mínims quadrats consisteix llavors a determinar els paràmetres de la corba de manera que sigui mínima la suma de les desviacions elevades al quadrat entre els valors de la corba i els dels punts observats. Les desviacions s'anomenen . Al gràfic de l'exemple s'han representat els punts de les dades. En una primera etapa se selecciona una classe de funció que hauria de correspondre al problema i a les dades, aquí una funció logística. Llavors els seus paràmetres es determinen de tal manera que la suma dels quadrats de les desviacions e entre les observacions i els valors de la funció sigui mínima. Al gràfic es representa la desviació e al lloc t com la distància vertical entre l'observació y i el valor de la corba. El mètode s'aplica sovint en estadística, en particular en anàlisi de regressions. El mètode és atribuït sovint a Carl Friedrich Gauss (1795), encara va ser publicar per primer cop per Adrien-Marie Legendre. El mínims quadrats corresponen al criteri de màxima versemblança si els errors experimentals tenen una distribució normal i també es pot obtenir com un estimador del . L'anàlisi de regressió està disponible en molts paquets de . (ca) Die Methode der kleinsten Quadrate (kurz MKQ bzw. englisch method of least squares, oder lediglich least squares kurz: LS; zur Abgrenzung von daraus abgeleiteten Erweiterungen wie z. B. der verallgemeinerten Methode der kleinsten Quadrate, oder der zweistufigen Methode der kleinsten Quadrate auch mit dem Zusatz „gewöhnliche“ bezeichnet, d. h. gewöhnliche Methode der kleinsten Quadrate (englisch ordinary least squares, kurz: OLS)), oder KQ-Methode (veraltet Methode der kleinsten Abweichungsquadratsumme) ist das mathematische Standardverfahren zur Ausgleichungsrechnung. Dabei wird zu einer Menge von Datenpunkten eine Funktion bestimmt, die möglichst nahe an den Datenpunkten verläuft und somit die Daten bestmöglich zusammenfasst. Die am häufigsten verwendete Funktion ist die Gerade, die dann Ausgleichsgerade genannt wird. Um die Methode anwenden zu können, muss die Funktion mindestens einen Parameter enthalten. Diese Parameter werden dann durch die Methode bestimmt, so dass, wenn die Funktion mit den Datenpunkten verglichen und der Abstand zwischen Funktionswert und Datenpunkt quadriert wird, die Summe dieser quadrierten Abstände möglichst gering wird. Die Abstände werden dann Residuen genannt. Typischerweise werden mit dieser Methode reale Daten, etwa physikalische oder wirtschaftliche Messwerte untersucht. Diese Daten beinhalten oft unvermeidbare Messfehler und Schwankungen. Unter der Annahme, dass die gemessenen Werte nahe an den zugrunde liegenden „wahren Werten“ liegen und zwischen den Messwerten ein bestimmter Zusammenhang besteht, kann die Methode verwendet werden, um eine Funktion zu finden, die diesen Zusammenhang der Daten möglichst gut beschreibt. Die Methode kann auch umgekehrt verwendet werden, um verschiedene Funktionen zu testen und dadurch einen unbekannten Zusammenhang in den Daten zu beschreiben. In der Beispielgrafik sind Datenpunkte und eine Ausgleichsfunktion eingetragen. Es wird eine allgemeine Funktion (die Modellfunktion) ausgewählt, die zur Fragestellung und den Daten passen sollte, hier eine logistische Funktion. Deren Parameter werden nun so bestimmt, dass die Summe der Abweichungsquadrate der Beobachtungen von den Werten der Funktion minimiert wird. In der Grafik ist die Abweichung an der Stelle als senkrechter Abstand der Beobachtung von der Kurve zu erkennen. In der Stochastik wird die Methode der kleinsten Quadrate meistens als regressionsanalytische Schätzmethode benutzt, wo sie auch als Kleinste-Quadrate-Schätzung bzw. gewöhnliche Kleinste-Quadrate-Schätzung bezeichnet wird. Da die Kleinste-Quadrate-Schätzung die Residuenquadratsumme minimiert, ist es dasjenige Schätzverfahren, welches das Bestimmtheitsmaß maximiert. Angewandt als Systemidentifikation ist die Methode der kleinsten Quadrate in Verbindung mit Modellversuchen z. B. für Ingenieure ein Ausweg aus der paradoxen Situation, Modellparameter für unbekannte Gesetzmäßigkeiten zu bestimmen. (de) Estatistikan, karratu txikienen erregresioa edo zehatzago karratu txikien arrunten erregresioa aldagai anitzeko datu multzo batera lerro bat (zuzen bat edo parabola bat esaterako) doitzeko metodo bat, karratuen batura minimotzen duena lerroaren parametroak zehazteko. Zehatzago, bi aldagaitarako, y mendeko aldagai bat eta x aldagai independente bat finkatu ondoren, bi aldagaiak lotzen dituen funtzio bat eratzen da: . Horrela, y mendeko aldagaiari buruz bi motako balioak sortzen dira, aldagai independentearen balio bakoitzeko: behatutako balioak, jaso diren egiazko datuak alegia, eta aurresandako balioak, aldagaiaren balio bakoitza funtzioan ordezkatuz suertatzen direnak. dira, aurresanean egiten diren erroreak alegia. Aurretik aukeratu den lerro motarako (zuzena edo bestelako bat), errore karratu hauen batura, alegia, minimotzen duen lerroa izango da karratu txikienen erregresio lerroa. Aldagai independenteak anitz izan daitezke eta orduan egiten dela esaten da. Prozedura berdina izango da, baina aurreikusitako balioak kalkulatzeko, lerroan aldagai independente guztietako balioak sartu beharko dira. Aurrez hondarrei probabilitate banaketa jakin bat ezartzen bazaie, bestelako baldintzekin batera, erregresio lerroari buruzko ondorio konplexuagoak egin daitezke, lerroaren parametroen adierazgarritasun estatistikoari buruz esaterako, inferentzia estatistikoa erabiliz. Orduan bat aztertzen ari dela esaten da. (eu) La méthode des moindres carrés, indépendamment élaborée par Legendre et Gauss au début du XIXe siècle, permet de comparer des données expérimentales, généralement entachées d’erreurs de mesure, à un modèle mathématique censé décrire ces données. Ce modèle peut prendre diverses formes. Il peut s’agir de lois de conservation que les quantités mesurées doivent respecter. La méthode des moindres carrés permet alors de minimiser l’impact des erreurs expérimentales en « ajoutant de l’information » dans le processus de mesure. (fr) The method of least squares is a standard approach in regression analysis to approximate the solution of overdetermined systems (sets of equations in which there are more equations than unknowns) by minimizing the sum of the squares of the residuals (a residual being the difference between an observed value and the fitted value provided by a model) made in the results of each individual equation. The most important application is in data fitting. When the problem has substantial uncertainties in the independent variable (the x variable), then simple regression and least-squares methods have problems; in such cases, the methodology required for fitting errors-in-variables models may be considered instead of that for least squares. Least squares problems fall into two categories: linear or ordinary least squares and nonlinear least squares, depending on whether or not the residuals are linear in all unknowns. The linear least-squares problem occurs in statistical regression analysis; it has a closed-form solution. The nonlinear problem is usually solved by iterative refinement; at each iteration the system is approximated by a linear one, and thus the core calculation is similar in both cases. Polynomial least squares describes the variance in a prediction of the dependent variable as a function of the independent variable and the deviations from the fitted curve. When the observations come from an exponential family with identity as its natural sufficient statistics and mild-conditions are satisfied (e.g. for normal, exponential, Poisson and binomial distributions), standardized least-squares estimates and maximum-likelihood estimates are identical. The method of least squares can also be derived as a method of moments estimator. The following discussion is mostly presented in terms of linear functions but the use of least squares is valid and practical for more general families of functions. Also, by iteratively applying local quadratic approximation to the likelihood (through the Fisher information), the least-squares method may be used to fit a generalized linear model. The least-squares method was officially discovered and published by Adrien-Marie Legendre (1805), though it is usually also co-credited to Carl Friedrich Gauss (1795) who contributed significant theoretical advances to the method and may have previously used it in his work. (en) Mínimos cuadrados es una técnica de análisis numérico enmarcada dentro de la optimización matemática, en la que, dados un conjunto de pares ordenados —variable independiente, variable dependiente— y una familia de funciones, se intenta encontrar la función continua, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático. En su forma más simple, intenta la suma de cuadrados de las diferencias en las ordenadas (llamadas ) entre los puntos generados por la función elegida y los correspondientes valores en los datos. Específicamente, se llama (LMS) cuando el número de datos medidos es 1 y se usa el método de gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un gran número de iteraciones para converger. Desde un punto de vista estadístico, un requisito implícito para que funcione el método de mínimos cuadrados es que los errores de cada medida estén distribuidos de forma aleatoria. El teorema de Gauss-Márkov prueba que los estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos no tiene que ajustarse, por ejemplo, a una distribución normal. También es importante que los datos a procesar estén bien escogidos, para que permitan visibilidad en las variables que han de ser resueltas (para dar más peso a un dato en particular, véase ). La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas. Muchos otros problemas de optimización pueden expresarse también en forma de mínimos cuadrados, minimizando la energía o maximizando la entropía. (es) Il metodo dei minimi quadrati (in inglese OLS: Ordinary Least Squares) è una tecnica di ottimizzazione (o regressione) che permette di trovare una funzione, rappresentata da una curva ottima (o curva di regressione), che si avvicini il più possibile ad un insieme di dati (tipicamente punti del piano).In particolare, la funzione trovata deve essere quella che minimizza la somma dei quadrati delle distanze tra i dati osservati e quelli della curva che rappresenta la funzione stessa.In questo caso, possiamo distinguere parabola dei minimi quadrati e retta dei minimi quadrati.Questo metodo converge solo nel suo caso limite a un'interpolazione, per cui di fatto si richiede che la curva ottima contenga tutti i punti dati. L'utilizzo più frequente è la deduzione dell'andamento medio in base ai dati sperimentali per l'estrapolazione fuori dal campo di misurazione.Anche altri problemi di ottimizzazione, come la minimizzazione dell'energia o la massimizzazione dell'entropia, possono essere riformulati in una ricerca dei minimi quadrati. (it) 최소제곱법, 또는 최소자승법, 최소제곱근사법, 최소자승근사법(method of least squares, least squares approximation)은 어떤 계의 해방정식을 근사적으로 구하는 방법으로, 근사적으로 구하려는 해와 실제 해의 오차의 제곱의 합(SS)이 최소가 되는 해를 구하는 방법이다. 이 방법은 값을 정확하게 측정할 수 없는 경우에 유용하게 사용될 수 있으며, 특히 그 계의 방정식이 어떤 형태인지를 알고 있을 때 방정식의 상수 값들을 추정하는 데에 사용된다. (ko) 最小二乗法(さいしょうにじょうほう、さいしょうじじょうほう;最小自乗法とも書く、英: least squares method)は、測定で得られた数値の組を、適当なモデルから想定される1次関数、対数曲線など特定の関数を用いて近似するときに、想定する関数が測定値に対してよい近似となるように、残差平方和を最小とするような係数を決定する方法、あるいはそのような方法によって近似を行うことである。簡潔に言うと、誤差を伴う測定値の処理において、その誤差の二乗の和を最小にするようにし、最も確からしい関係式を求める方法である。 (ja) Metoda najmniejszych kwadratów – standardowa metoda przybliżania rozwiązań układów nadokreślonych, tzn. zestawu równań, w którym jest ich więcej niż zmiennych. Nazwa „najmniejsze kwadraty” oznacza, że końcowe rozwiązanie tą metodą minimalizuje sumę kwadratów błędów przy rozwiązywaniu każdego z równań. W statystyce wykorzystuje się ją do estymacji i wyznaczania linii trendu na podstawie zbioru danych w postaci par liczb. Najczęściej jest stosowana przy regresji liniowej, ale może też być stosowana do statystycznego wyznaczania parametrów nieliniowych linii trendu. (pl) De kleinste-kwadratenmethode is een rekenmethode om bij een gegeven verzameling punten in het vlak uit een verzameling curven de best passende te bepalen. De methode dankt zijn naam kleinste kwadraten aan het daarbij gehanteerde criterium voor best passen, waarbij de mate van passen wordt afgemeten aan het totaal van de kwadratische afwijkingen (meestal in verticale zin) van de curve. (nl) Minstakvadratmetoden (även minsta-kvadrat-metoden eller minsta kvadrat-metoden) används bland annat vid regressionsanalys för att minimera felet i en funktion som ska anpassas utifrån observerade värden. Exempel på tillämpningar är * Utifrån gjorda folkräkningar vill man förutsäga befolkningsökningen i ett område genom att göra folkmängden till en funktion av tiden. * Inom hydrologi vill man beräkna hur stort skyfall som inträffar en gång var hundrade år, till exempel för att kunna dimensionera en mindre damm (se även frekvensanalys). I detta fall görs regnmängden till en funktion av återkomsttiden. Minstakvadratmetoden har en linjär och en icke-linjär variant beroende på om residualerna (”felen”) är linjära eller inte med avseende på alla obekanta. Den linjära varianten tillämpas inom regressionsanalys och har en sluten form. Den icke-linjära bygger vanligen på iterativa metoder. Vid varje iteration approximeras lösningen med en linjär lösning, varför de grundläggande beräkningarna är snarlika i båda fallen. (sv) O Método dos Mínimos Quadrados (MMQ), ou Mínimos Quadrados Ordinários (MQO) ou OLS (do inglês Ordinary Least Squares) é uma técnica de otimização matemática que procura encontrar o melhor ajuste para um conjunto de dados tentando minimizar a soma dos quadrados das diferenças entre o valor estimado e os dados observados (tais diferenças são chamadas resíduos). É a forma de estimação mais amplamente utilizada na econometria. Consiste em um estimador que minimiza a soma dos quadrados dos resíduos da regressão, de forma a maximizar o grau de ajuste do modelo aos dados observados. Um requisito para o método dos mínimos quadrados é que o fator imprevisível (erro) seja distribuído aleatoriamente e essa distribuição seja normal. O Teorema Gauss-Markov garante (embora indiretamente) que o estimador de mínimos quadrados é o estimador não-enviesado de mínima variância linear na variável resposta. Outro requisito é que o modelo é linear nos parâmetros, ou seja, as variáveis apresentam uma relação linear entre si. Caso contrário, deveria ser usado um modelo de regressão não-linear. Credita-se Carl Friedrich Gauss como o desenvolvedor das bases fundamentais do método dos mínimos quadrados, em 1795, quando Gauss tinha apenas dezoito anos. Entretanto, Adrien-Marie Legendre foi o primeiro a publicar o método em 1805, em seu Nouvelles méthodes pour la détermination des orbites des comètes. Gauss publicou suas conclusões apenas em 1809. (pt) Метод наименьших квадратов (МНК) — математический метод, применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от экспериментальных входных данных. Он может использоваться для «решения» переопределенных систем уравнений (когда количество уравнений превышает количество неизвестных), для поиска решения в случае обычных (не переопределенных) нелинейных систем уравнений, для аппроксимации точечных значений некоторой функции. МНК является одним из базовых методов регрессионного анализа для оценки неизвестных параметров регрессионных моделей по выборочным данным. (ru) 最小二乘法(英語:least squares method),又称最小平方法,是一种數學方法。它通过最小化誤差的平方和尋找數據的最佳函數匹配。 利用最小二乘法可以簡便的求得未知的數據,並使得求得的數據與實際數據之間誤差的平方和為最小。 “最小平方法”是對線性方程組,即方程個數比未知數更多的方程組,以迴歸分析求得近似解的標準方法。在這整個解決方案中,最小平方法演算為每一方程式的結果中,將殘差平方和的總和最小化。 最重要的應用是在曲線擬合上。最小平方所涵義的最佳擬合,即殘差(殘差為:觀測值與模型提供的擬合值之間的差距)平方總和的最小化。當問題在自變量(x變量)有重大不確定性時,那麼使用簡易迴歸和最小平方法會發生問題;在這種情況下,須另外考慮變量-誤差-擬合模型所需的方法,而不是最小平方法。 最小平方問題分為兩種:線性或普通的最小平方法,和非線性的最小平方法,取決於在所有未知數中的殘差是否為線性。線性的最小平方問題發生在統計迴歸分析中;它有一個封閉形式的解決方案。非線性的問題通常經由迭代細緻化來解決;在每次迭代中,系統由線性近似,因此在這兩種情況下核心演算是相同的。 最小平方法所得出的多項式,即以擬合曲線的函數來描述自變量與預計應變量的變異數關係。 當觀測值來自指數族且滿足輕度條件時,最小平方估計和最大似然估計是相同的。最小平方法也能從動差法得出。 以下討論大多是以線性函數形式來表示,但對於更廣泛的函數族,最小平方法也是有效和實用的。此外,迭代地將局部的二次近似應用於或然性(藉由費雪信息),最小平方法可用於擬合廣義線性模型。 最小平方法通常歸功於高斯(Carl Friedrich Gauss,1795),但最小平方法是由阿德里安-马里·勒让德(Adrien-Marie Legendre)首先發表的。 (zh) Метод найменших квадратів — метод знаходження наближеного розв'язку надлишково-визначеної системи. Часто застосовується в регресійному аналізі. На практиці найчастіше використовується лінійний метод найменших квадратів, що використовується у випадку системи лінійних рівнянь. Зокрема важливим застосуванням у цьому випадку є оцінка параметрів у лінійній регресії, що широко застосовується у математичній статистиці і економетриці. (uk)
dbo:thumbnail wiki-commons:Special:FilePath/Linear_least_squares2.svg?width=300
dbo:wikiPageExternalLink https://www.researchgate.net/publication/350838636 https://books.google.com/books%3Fid=3LK9JoGEyN4C https://books.google.com/books%3Fid=lZU0CAH4RccC&pg=PA78
dbo:wikiPageID 82359 (xsd:integer)
dbo:wikiPageInterLanguageLink dbpedia-gl:Mínimos_cadrados_lineais dbpedia-vi:Bình_phương_tối_thiểu_tuyến_tính
dbo:wikiPageLength 38229 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1119716501 (xsd:integer)
dbo:wikiPageWikiLink dbr:Carl_Friedrich_Gauss dbr:Bayesian_statistics dbc:Single-equation_methods_(econometrics) dbr:Probability_distribution dbr:Roger_Cotes dbr:Roger_Joseph_Boscovich dbr:Sara_van_de_Geer dbr:Saturn dbr:Elastic_net_regularization dbr:Method_of_moments_(statistics) dbr:Hooke's_law dbr:Best_linear_unbiased_prediction dbr:Ridge_regression dbr:Robert_Adrain dbr:Variance dbr:Degrees_of_freedom_(statistics) dbr:Proximal_gradient_methods_for_learning dbr:Polynomial_least_squares dbr:L2-norm dbr:L2_norm dbr:Quadratic_loss_function dbr:Confidence_interval dbr:Convex_optimization dbr:Maxima_and_minima dbr:Measure_(mathematics) dbr:Gauss's_method dbr:Gauss–Markov_theorem dbr:Gauss–Newton_algorithm dbr:Generalized_linear_model dbr:Geodesy dbr:Franz_Xaver_von_Zach dbr:Generalized_least_squares dbr:Giuseppe_Piazzi dbr:Gradient dbr:Homoscedasticity dbr:Regularization_(machine_learning) dbr:Arithmetic_mean dbr:Libration dbr:Compressed_sensing dbr:Feature_selection dbr:Kepler's_laws_of_planetary_motion dbr:Overdetermined_system dbr:Total_least_squares dbr:Measurement_uncertainty dbc:Optimization_algorithms_and_methods dbr:Central_limit_theorem dbr:Ceres_(dwarf_planet) dbr:Tobias_Mayer dbr:Errors_and_residuals_in_statistics dbr:Laplace_distribution dbr:Least-squares_adjustment dbr:Least-squares_spectral_analysis dbr:Least_absolute_deviations dbr:Linear_combination dbr:Linear_least_squares dbr:Adrien-Marie_Legendre dbr:Age_of_Discovery dbr:Curve_fitting dbr:Errors-in-variables_models dbr:Expected_value dbr:Exponential_family dbr:Finite_differences dbr:Normal_distribution dbr:Principal_component_analysis dbr:Dependent_variable dbr:Probability dbr:Quadratic_programming dbr:Regression_analysis dbr:Residual_sum_of_squares dbr:Root_mean_square dbr:Jacobian_matrix_and_determinant dbr:Taylor_series dbr:Covariance_matrix dbr:Astronomy dbr:Jupiter dbr:L1-norm dbr:Lagrange_multipliers dbc:Least_squares dbr:Tikhonov_regularization dbr:Reduced_chi-squared_statistic dbr:Pierre-Simon_Laplace dbr:Square-integrable_functions dbr:Empirical_process_theory dbr:Maximum_likelihood_estimator dbr:Independent_variable dbr:Minimum_mean_square_error dbr:Ordinary_least_squares dbr:Orthogonal_projection dbr:Maximum_likelihood dbr:Squared_deviations_from_the_mean dbr:Sum_of_squared_residuals dbr:Nonlinear_least_squares dbr:Linear dbr:Fisher_information dbr:Heteroscedasticity dbr:Uncorrelated dbr:Vapnik-Chervonenkis_dimension dbr:Hypothesis_testing dbr:Parameter_estimation dbr:Gauss–Seidel dbr:Force_constant dbr:Residuals_(statistics) dbr:Confidence_limits dbr:Least_absolute_deviation dbr:Least_angle_regression dbr:Prior_distribution dbr:Probability_density dbr:Closed-form_solution dbr:Unbiased dbr:File:Bendixen_-_Carl_Friedrich_Gauß,_1828.jpg dbr:File:Heteroscedasticity_Fanning_Out_.png dbr:File:Linear_Residual_Plot_Graph.png dbr:File:Linear_least_squares2.svg dbr:File:Parabolic_Residual_Plot_Graph.png dbr:File:X33-ellips-1.svg
dbp:wikiPageUsesTemplate dbt:Regression_bar dbt:Authority_control dbt:Cite_book dbt:Cite_web dbt:Commonscat-inline dbt:Div_col dbt:Div_col_end dbt:Dubious dbt:Em dbt:Main dbt:Mvar dbt:Reflist dbt:Short_description dbt:Technical dbt:Least_Squares_and_Regression_Analysis dbt:Distinguish-redirect dbt:Statistics
dcterms:subject dbc:Single-equation_methods_(econometrics) dbc:Optimization_algorithms_and_methods dbc:Least_squares
gold:hypernym dbr:Approach
rdf:type owl:Thing dbo:ProgrammingLanguage
rdfs:comment La méthode des moindres carrés, indépendamment élaborée par Legendre et Gauss au début du XIXe siècle, permet de comparer des données expérimentales, généralement entachées d’erreurs de mesure, à un modèle mathématique censé décrire ces données. Ce modèle peut prendre diverses formes. Il peut s’agir de lois de conservation que les quantités mesurées doivent respecter. La méthode des moindres carrés permet alors de minimiser l’impact des erreurs expérimentales en « ajoutant de l’information » dans le processus de mesure. (fr) 최소제곱법, 또는 최소자승법, 최소제곱근사법, 최소자승근사법(method of least squares, least squares approximation)은 어떤 계의 해방정식을 근사적으로 구하는 방법으로, 근사적으로 구하려는 해와 실제 해의 오차의 제곱의 합(SS)이 최소가 되는 해를 구하는 방법이다. 이 방법은 값을 정확하게 측정할 수 없는 경우에 유용하게 사용될 수 있으며, 특히 그 계의 방정식이 어떤 형태인지를 알고 있을 때 방정식의 상수 값들을 추정하는 데에 사용된다. (ko) 最小二乗法(さいしょうにじょうほう、さいしょうじじょうほう;最小自乗法とも書く、英: least squares method)は、測定で得られた数値の組を、適当なモデルから想定される1次関数、対数曲線など特定の関数を用いて近似するときに、想定する関数が測定値に対してよい近似となるように、残差平方和を最小とするような係数を決定する方法、あるいはそのような方法によって近似を行うことである。簡潔に言うと、誤差を伴う測定値の処理において、その誤差の二乗の和を最小にするようにし、最も確からしい関係式を求める方法である。 (ja) Metoda najmniejszych kwadratów – standardowa metoda przybliżania rozwiązań układów nadokreślonych, tzn. zestawu równań, w którym jest ich więcej niż zmiennych. Nazwa „najmniejsze kwadraty” oznacza, że końcowe rozwiązanie tą metodą minimalizuje sumę kwadratów błędów przy rozwiązywaniu każdego z równań. W statystyce wykorzystuje się ją do estymacji i wyznaczania linii trendu na podstawie zbioru danych w postaci par liczb. Najczęściej jest stosowana przy regresji liniowej, ale może też być stosowana do statystycznego wyznaczania parametrów nieliniowych linii trendu. (pl) De kleinste-kwadratenmethode is een rekenmethode om bij een gegeven verzameling punten in het vlak uit een verzameling curven de best passende te bepalen. De methode dankt zijn naam kleinste kwadraten aan het daarbij gehanteerde criterium voor best passen, waarbij de mate van passen wordt afgemeten aan het totaal van de kwadratische afwijkingen (meestal in verticale zin) van de curve. (nl) Метод наименьших квадратов (МНК) — математический метод, применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от экспериментальных входных данных. Он может использоваться для «решения» переопределенных систем уравнений (когда количество уравнений превышает количество неизвестных), для поиска решения в случае обычных (не переопределенных) нелинейных систем уравнений, для аппроксимации точечных значений некоторой функции. МНК является одним из базовых методов регрессионного анализа для оценки неизвестных параметров регрессионных моделей по выборочным данным. (ru) Метод найменших квадратів — метод знаходження наближеного розв'язку надлишково-визначеної системи. Часто застосовується в регресійному аналізі. На практиці найчастіше використовується лінійний метод найменших квадратів, що використовується у випадку системи лінійних рівнянь. Зокрема важливим застосуванням у цьому випадку є оцінка параметрів у лінійній регресії, що широко застосовується у математичній статистиці і економетриці. (uk) طريقة المربعات الصغرى أو الدنيا (بالإنجليزية: Least squares)‏ هي مقاربة رئيسية تستعمل في احصاء، وبالتحديد في تحليل الانحدار.تهدف إلى تقدير خط الانحدار الذي يؤدي إلى تقليل مجموع الانحرافات الرئيسية أو الأخطاء الواردة في النقاط التي تمت ملاحظتها في أي يتم التقليل من مجموع مربعات الفروق بين القيم الفعلية والقيم المحسوبة.ويمكن القول أيضا انها طريقة تقريب قياسية تستخدم لحل أنظمة المعادلات التي يكون فيها عدد المعادلات أكبر من عدد المتغيرات. «المربعات الدنيا» تعني بأن الحل الكلي يتجه نحو تصغير قيمة مجموع مربعات الخطأ الناتج عن حل كل معادلة. (ar) El mètode de mínims quadrats és el procediment matemàtic estàndard per a l'. Donat un núvol de punts corresponent a les dades es busca una corba que passi tan a prop com sigui possible dels punts de les dades. Les dades poden representar mesures físiques, valors econòmics o similars, mentre que la corba pertany a una família de corbes paramètriques adequada al problema que es pretén modelitzar. El mètode dels mínims quadrats consisteix llavors a determinar els paràmetres de la corba de manera que sigui mínima la suma de les desviacions elevades al quadrat entre els valors de la corba i els dels punts observats. Les desviacions s'anomenen . (ca) Metoda nejmenších čtverců je matematicko-statistická metoda pro aproximaci řešení přeurčených soustav rovnic (tj. soustav, kde je více rovnic, než neznámých). „Nejmenší čtverce“ znamenají, že výsledné řešení má minimalizovat součet čtverců odchylek vůči každé rovnici. Metoda je v základní podobě určená pro řešení nekompatibilních soustav lineárních rovnic (v obecnější podobě hovoříme o ), díky čemuž je fakticky ekvivalentní tzv. lineární regresi. (cs) Mínimos cuadrados es una técnica de análisis numérico enmarcada dentro de la optimización matemática, en la que, dados un conjunto de pares ordenados —variable independiente, variable dependiente— y una familia de funciones, se intenta encontrar la función continua, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático. (es) Die Methode der kleinsten Quadrate (kurz MKQ bzw. englisch method of least squares, oder lediglich least squares kurz: LS; zur Abgrenzung von daraus abgeleiteten Erweiterungen wie z. B. der verallgemeinerten Methode der kleinsten Quadrate, oder der zweistufigen Methode der kleinsten Quadrate auch mit dem Zusatz „gewöhnliche“ bezeichnet, d. h. gewöhnliche Methode der kleinsten Quadrate (englisch ordinary least squares, kurz: OLS)), oder KQ-Methode (veraltet Methode der kleinsten Abweichungsquadratsumme) ist das mathematische Standardverfahren zur Ausgleichungsrechnung. Dabei wird zu einer Menge von Datenpunkten eine Funktion bestimmt, die möglichst nahe an den Datenpunkten verläuft und somit die Daten bestmöglich zusammenfasst. Die am häufigsten verwendete Funktion ist die Gerade, die dann (de) Estatistikan, karratu txikienen erregresioa edo zehatzago karratu txikien arrunten erregresioa aldagai anitzeko datu multzo batera lerro bat (zuzen bat edo parabola bat esaterako) doitzeko metodo bat, karratuen batura minimotzen duena lerroaren parametroak zehazteko. Aldagai independenteak anitz izan daitezke eta orduan egiten dela esaten da. Prozedura berdina izango da, baina aurreikusitako balioak kalkulatzeko, lerroan aldagai independente guztietako balioak sartu beharko dira. (eu) The method of least squares is a standard approach in regression analysis to approximate the solution of overdetermined systems (sets of equations in which there are more equations than unknowns) by minimizing the sum of the squares of the residuals (a residual being the difference between an observed value and the fitted value provided by a model) made in the results of each individual equation. Polynomial least squares describes the variance in a prediction of the dependent variable as a function of the independent variable and the deviations from the fitted curve. (en) Il metodo dei minimi quadrati (in inglese OLS: Ordinary Least Squares) è una tecnica di ottimizzazione (o regressione) che permette di trovare una funzione, rappresentata da una curva ottima (o curva di regressione), che si avvicini il più possibile ad un insieme di dati (tipicamente punti del piano).In particolare, la funzione trovata deve essere quella che minimizza la somma dei quadrati delle distanze tra i dati osservati e quelli della curva che rappresenta la funzione stessa.In questo caso, possiamo distinguere parabola dei minimi quadrati e retta dei minimi quadrati.Questo metodo converge solo nel suo caso limite a un'interpolazione, per cui di fatto si richiede che la curva ottima contenga tutti i punti dati. (it) O Método dos Mínimos Quadrados (MMQ), ou Mínimos Quadrados Ordinários (MQO) ou OLS (do inglês Ordinary Least Squares) é uma técnica de otimização matemática que procura encontrar o melhor ajuste para um conjunto de dados tentando minimizar a soma dos quadrados das diferenças entre o valor estimado e os dados observados (tais diferenças são chamadas resíduos). É a forma de estimação mais amplamente utilizada na econometria. Consiste em um estimador que minimiza a soma dos quadrados dos resíduos da regressão, de forma a maximizar o grau de ajuste do modelo aos dados observados. (pt) Minstakvadratmetoden (även minsta-kvadrat-metoden eller minsta kvadrat-metoden) används bland annat vid regressionsanalys för att minimera felet i en funktion som ska anpassas utifrån observerade värden. Exempel på tillämpningar är (sv) 最小二乘法(英語:least squares method),又称最小平方法,是一种數學方法。它通过最小化誤差的平方和尋找數據的最佳函數匹配。 利用最小二乘法可以簡便的求得未知的數據,並使得求得的數據與實際數據之間誤差的平方和為最小。 “最小平方法”是對線性方程組,即方程個數比未知數更多的方程組,以迴歸分析求得近似解的標準方法。在這整個解決方案中,最小平方法演算為每一方程式的結果中,將殘差平方和的總和最小化。 最重要的應用是在曲線擬合上。最小平方所涵義的最佳擬合,即殘差(殘差為:觀測值與模型提供的擬合值之間的差距)平方總和的最小化。當問題在自變量(x變量)有重大不確定性時,那麼使用簡易迴歸和最小平方法會發生問題;在這種情況下,須另外考慮變量-誤差-擬合模型所需的方法,而不是最小平方法。 最小平方問題分為兩種:線性或普通的最小平方法,和非線性的最小平方法,取決於在所有未知數中的殘差是否為線性。線性的最小平方問題發生在統計迴歸分析中;它有一個封閉形式的解決方案。非線性的問題通常經由迭代細緻化來解決;在每次迭代中,系統由線性近似,因此在這兩種情況下核心演算是相同的。 最小平方法所得出的多項式,即以擬合曲線的函數來描述自變量與預計應變量的變異數關係。 當觀測值來自指數族且滿足輕度條件時,最小平方估計和最大似然估計是相同的。最小平方法也能從動差法得出。 (zh)
rdfs:label Least squares (en) مربعات دنيا (ar) Mètode dels mínims quadrats (ca) Metoda nejmenších čtverců (cs) Methode der kleinsten Quadrate (de) Mínimos cuadrados (es) Karratu txikienen erregresio (eu) Méthode des moindres carrés (fr) Metodo dei minimi quadrati (it) 최소제곱법 (ko) Kleinste-kwadratenmethode (nl) 最小二乗法 (ja) Metoda najmniejszych kwadratów (pl) Метод наименьших квадратов (ru) Método dos mínimos quadrados (pt) Minstakvadratmetoden (sv) Метод найменших квадратів (uk) 最小二乘法 (zh)
owl:differentFrom dbr:Least-squares_function_approximation
owl:sameAs freebase:Least squares wikidata:Least squares dbpedia-af:Least squares dbpedia-ar:Least squares dbpedia-az:Least squares dbpedia-bg:Least squares dbpedia-ca:Least squares dbpedia-cs:Least squares dbpedia-da:Least squares dbpedia-de:Least squares dbpedia-es:Least squares dbpedia-et:Least squares dbpedia-eu:Least squares dbpedia-fa:Least squares dbpedia-fi:Least squares dbpedia-fr:Least squares dbpedia-gl:Least squares dbpedia-he:Least squares http://hi.dbpedia.org/resource/न्यूनतम_वर्ग_विधि dbpedia-hu:Least squares dbpedia-it:Least squares dbpedia-ja:Least squares dbpedia-kk:Least squares dbpedia-ko:Least squares dbpedia-la:Least squares dbpedia-mk:Least squares dbpedia-nl:Least squares dbpedia-nn:Least squares dbpedia-no:Least squares dbpedia-pl:Least squares dbpedia-pt:Least squares dbpedia-ro:Least squares dbpedia-ru:Least squares dbpedia-simple:Least squares http://su.dbpedia.org/resource/Kuadrat_leutik dbpedia-sv:Least squares dbpedia-tr:Least squares dbpedia-uk:Least squares http://ur.dbpedia.org/resource/لکیری_اقل_مربعات http://uz.dbpedia.org/resource/Eng_kichik_kvadratlar_usuli dbpedia-vi:Least squares dbpedia-zh:Least squares https://global.dbpedia.org/id/4ud8G
prov:wasDerivedFrom wikipedia-en:Least_squares?oldid=1119716501&ns=0
foaf:depiction wiki-commons:Special:FilePath/Heteroscedasticity_Fanning_Out_.png wiki-commons:Special:FilePath/Linear_Residual_Plot_Graph.png wiki-commons:Special:FilePath/Linear_least_squares2.svg wiki-commons:Special:FilePath/Parabolic_Residual_Plot_Graph.png wiki-commons:Special:FilePath/X33-ellips-1.svg wiki-commons:Special:FilePath/Bendixen_-_Carl_Friedrich_Gauß,_1828.jpg
foaf:isPrimaryTopicOf wikipedia-en:Least_squares
is dbo:knownFor of dbr:Roger_Cotes
is dbo:wikiPageDisambiguates of dbr:LS
is dbo:wikiPageRedirects of dbr:Method_of_Least_Squares dbr:Method_of_least_squares dbr:Least-squares_estimation dbr:Least_Squares dbr:LSQF dbr:Sum_of_Squared_Error dbr:Least-Squares_Fitting dbr:Least-squares dbr:Least-squares_analysis dbr:Least-squares_approximation dbr:Least-squares_fit dbr:Least-squares_method dbr:Least-squares_problem dbr:Least_squares_approximation dbr:Least_squares_fit dbr:Least_squares_fitting dbr:Least_squares_method dbr:Least_squares_problem dbr:Principle_of_least_squares
is dbo:wikiPageWikiLink of dbr:Calibration_curve dbr:Carl_Friedrich_Gauss dbr:Pseudo-range_multilateration dbr:Roger_Cotes dbr:List_of_algorithms dbr:Monte_Carlo_methods_in_finance dbr:Non-linear_least_squares dbr:M-estimator dbr:MRI_artifact dbr:Scatterplot_smoothing dbr:Variance_function dbr:Probabilistic_numerics dbr:Biostatistics dbr:Blas_Cabrera dbr:Boris_Choubert dbr:Andrew_Vázsonyi dbr:Anomaly_(natural_sciences) dbr:Ansatz dbr:Apollo_PGNCS dbr:Arbitrage_pricing_theory dbr:History_of_geodesy dbr:History_of_the_metre dbr:Hockey_stick_graph_(global_temperature) dbr:John_von_Neumann dbr:Joseph_Bertrand dbr:Peter_Gustav_Lejeune_Dirichlet dbr:Peter_Swerling dbr:Regularized_least_squares dbr:Ridge_regression dbr:DIIS dbr:Vector_field_reconstruction dbr:Decomposition_of_time_series dbr:Degrees_of_freedom_(statistics) dbr:Determining_the_number_of_clusters_in_a_data_set dbr:Detrended_fluctuation_analysis dbr:Earth_Gravitational_Model dbr:Index_of_electrical_engineering_articles dbr:Interpolation dbr:Inverse_problem dbr:James–Stein_estimator dbr:Standard_deviation dbr:Levenberg–Marquardt_algorithm dbr:List_of_numerical_analysis_topics dbr:List_of_numerical_libraries dbr:Range_segmentation dbr:Powder_diffraction dbr:Powell's_dog_leg_method dbr:Timeline_of_artificial_intelligence dbr:Convex_optimization dbr:Cook's_distance dbr:Analysis_of_variance dbr:Analytic_element_method dbr:Mathematical_optimization dbr:Maximum_likelihood_estimation dbr:Median dbr:Chemical_sensor_array dbr:Errors_and_residuals dbr:Estimating_equations dbr:Estimation_of_signal_parameters_via_rotational_invariance_techniques dbr:Estimation_theory dbr:Gauss's_principle_of_least_constraint dbr:General_linear_model dbr:Generalized_chi-squared_distribution dbr:Generalized_pencil-of-function_method dbr:Generated_regressor dbr:Geoid dbr:Geopositioning dbr:Low-rank_approximation dbr:Omitted-variable_bias dbr:Online_machine_learning dbr:Segmented_regression dbr:Quantum_optimization_algorithms dbr:Timeline_of_machine_learning dbr:1795_in_science dbr:1805_in_science dbr:1806_in_science dbr:1808_in_science dbr:1809_in_science dbr:Cobb–Douglas_production_function dbr:Coefficient_of_determination dbr:Coherence_(signal_processing) dbr:Friedrich_Robert_Helmert dbr:GAUSS_(software) dbr:GNU_Scientific_Library dbr:Gallagher_index dbr:Gaussian_function dbr:Genetic_history_of_East_Asians dbr:Gnome_Wave_Cleaner dbr:Gotthilf_Hagen dbr:Bounding_sphere dbr:Mlpy dbr:Moment_matrix dbr:Multi-fractional_order_estimator dbr:Control_variates dbr:Cross-validation_(statistics) dbr:Thorvald_N._Thiele dbr:Lack-of-fit_sum_of_squares dbr:Statistical_inference dbr:Optimal_design dbr:Statistical_association_football_predictions dbr:Singular_value_decomposition dbr:Stability_constants_of_complexes dbr:Statistics dbr:Compressed_sensing dbr:Computational_imaging dbr:Computational_phylogenetics dbr:Computer_stereo_vision dbr:Feature_learning dbr:Helmert_transformation dbr:Helmert–Wolf_blocking dbr:Overdetermined_system dbr:Piecewise_linear_function dbr:Smoothing_spline dbr:Total_least_squares dbr:Michael_Gallagher_(academic) dbr:Taft_equation dbr:B-spline dbr:Active_appearance_model dbr:AdaBoost dbr:Central_tendency dbr:Tobit_model dbr:Wilhelm_Schur dbr:Distance dbr:Distance_matrices_in_phylogeny dbr:Divine_Proportions:_Rational_Trigonometry_to_Universal_Geometry dbr:GNSS_enhancement dbr:Hat_operator dbr:Jet_Propulsion_Laboratory_Development_Ephemeris dbr:Le_Bail_method dbr:Least-squares_adjustment dbr:Least-squares_function_approximation dbr:Least-squares_spectral_analysis dbr:Least_absolute_deviations dbr:Least_mean_squares_filter dbr:Least_trimmed_squares dbr:Linear_least_squares dbr:Linear_model dbr:Linear_probability_model dbr:Linear_regression dbr:Linear_seismic_inversion dbr:Linear_trend_estimation dbr:Pseudorange dbr:Spatial_verification dbr:Stein's_example dbr:Singular_spectrum_analysis dbr:Acid_dissociation_constant dbr:Adolphe_Quetelet dbr:Adrien-Marie_Legendre dbr:Akaike_information_criterion dbr:Alain_Gringarten dbr:Alexander_Ross_Clarke dbr:3D_reconstruction_from_multiple_images dbr:Curve_fitting dbr:Data_transformation_(statistics) dbr:F-test dbr:Forecasting dbr:Fourier_analysis dbr:Bregman_divergence dbr:Normal_distribution dbr:Partition_coefficient dbr:Partition_of_sums_of_squares dbr:Founders_of_statistics dbr:Glossary_of_machine_vision dbr:Goldfeld–Quandt_test dbr:Gradient_boosting dbr:Gravity_model_of_trade dbr:Hilbert_matrix dbr:Iteratively_reweighted_least_squares dbr:List_of_German_inventions_and_discoveries dbr:Molecular_Hamiltonian dbr:Stochastic_gradient_descent dbr:Nonlinear_regression dbr:Pythagorean_theorem dbr:Quantile_regression_averaging dbr:Randomized_Hough_transform dbr:Real_options_valuation dbr:Recursive_least_squares_filter dbr:Regression_analysis dbr:Regularization_(mathematics) dbr:Residual_sum_of_squares dbr:Rietveld_refinement dbr:Robust_regression dbr:Root_mean_square dbr:Gustav_Elfving dbr:Hand_eye_calibration_problem dbr:Herman_Wold dbr:Hilbert_space dbr:Hipparcos dbr:Inverse_element dbr:Irénée-Jules_Bienaymé dbr:Jan_Śleszyński dbr:Count_data dbr:Hypocenter dbr:Wind_resource_assessment dbr:LSQ dbr:Statistical_model_specification dbr:Acid_strength dbr:Advertising_adstock dbr:Johann_Karl_Burckhardt dbr:Block_matrix_pseudoinverse dbr:Sum-of-squares_optimization dbr:Surveying dbr:Heston_model dbr:Theil–Sen_estimator dbr:Transit_(satellite) dbr:Triangulation_(surveying) dbr:Wiener_filter dbr:Weighing_matrix dbr:Regressive_discrete_Fourier_series dbr:Salt_tolerance_of_crops dbr:Discrete_least_squares_meshless_method dbr:Distance_matrix dbr:Divergence_(statistics) dbr:Australian_Height_Datum dbr:Autoencoder dbr:Autoregressive_conditional_heteroskedasticity dbr:Autoregressive–moving-average_model dbr:CUTEr dbr:Photogrammetry dbr:Point-set_registration dbr:Square_(algebra) dbr:Cladogram dbr:Group_method_of_data_handling dbr:Hugo_Rietveld dbr:Method_of_Least_Squares dbr:Method_of_least_squares dbr:IERS_Reference_Meridian dbr:Infrared_atmospheric_sounding_interferometer dbr:Instrumental_variables_estimation dbr:Kronecker_product dbr:Metre dbr:Minimum_mean_square_error dbr:Brownian_motion dbr:Optimus_platform dbr:Ordinary_least_squares dbr:Carlos_Ibáñez_e_Ibáñez_de_Ibero dbr:Channel_state_information dbr:Sensor_array dbr:World_Geodetic_System dbr:X-ray_crystallography dbr:XLfit dbr:Raymond_Thayer_Birge dbr:Loosemore–Hanby_index dbr:Loss_function dbr:Matched_filter dbr:Maximum_likelihood_sequence_estimation dbr:Mean_absolute_error dbr:Mean_squared_error dbr:Multidelay_block_frequency_domain_adaptive_filter dbr:STO-nG_basis_sets dbr:Spectral_density_estimation dbr:Squared_deviations_from_the_mean dbr:Self-organizing_map dbr:Uncertainty_quantification dbr:Victorian_era dbr:Volume_of_fluid_method dbr:Newey–West_estimator dbr:Euclidean_distance dbr:Exponential_smoothing dbr:INTLAB dbr:Implicit_solvation dbr:List_of_statistics_articles dbr:Michaelis–Menten_kinetics dbr:LS dbr:LSM dbr:Least-squares_estimation dbr:Proportional_hazards_model dbr:SOCET_SET dbr:Rotational–vibrational_spectroscopy dbr:Runge's_phenomenon dbr:Finite_point_method dbr:Fisher_information dbr:Manifold_regularization dbr:Synthetic_air_data_system dbr:Nonlinear_programming dbr:Procrustes_analysis dbr:Monetary/fiscal_debate dbr:Outline_of_control_engineering dbr:Phylogenetic_invariants dbr:Polynomial_regression dbr:Yates_analysis dbr:Signal_transfer_function dbr:TOMLAB dbr:Taguchi_methods dbr:Video_super-resolution dbr:Noise_shaping dbr:Spectral_line_shape dbr:Sum_of_squares dbr:Outline_of_computer_vision dbr:Outline_of_electrical_engineering dbr:Outline_of_linear_algebra dbr:Outline_of_regression_analysis dbr:Sinusoidal_model dbr:Shape_context dbr:ScientificPython dbr:Sparse_approximation dbr:Transmission_electron_cryomicroscopy dbr:Virginia_R._Young dbr:Least_Squares dbr:Spectroscopic_optical_coherence_tomography
is dbp:knownFor of dbr:Roger_Cotes
is foaf:primaryTopic of wikipedia-en:Least_squares