Gauss–Markov theorem (original) (raw)
في الإحصاء، سميت مبرهنة غاوس-ماركوف هكذا نسبة إلى كارل فريدريش غاوس وآندريه ماركوف. تنص هاته المبرهنة على أنه في نموذج الانحدار الخطي حيث احتمال الأخطاء يساوي الصفر وحيث لا ترتبط ببعضها البعض وحيث تبايناتها متساوية، أحسن تقدير خطي في معاملاته، هو تقدير المربعات الدنيا الاعتيادية.
Property | Value |
---|---|
dbo:abstract | في الإحصاء، سميت مبرهنة غاوس-ماركوف هكذا نسبة إلى كارل فريدريش غاوس وآندريه ماركوف. تنص هاته المبرهنة على أنه في نموذج الانحدار الخطي حيث احتمال الأخطاء يساوي الصفر وحيث لا ترتبط ببعضها البعض وحيث تبايناتها متساوية، أحسن تقدير خطي في معاملاته، هو تقدير المربعات الدنيا الاعتيادية. (ar) El Teorema de Gauss-Màrkov, en estadística, formulat per Carl Friedrich Gauss i Andrei Màrkov, estableix que en un model lineal general (MLG) en el qual s'estableixin els següents supòsits: * Correcta especificació: el MLG ha de ser una combinació lineal dels paràmetres (B) i no necessàriament de les variables: Y = XB+U * Mostreig aleatori simple: la mostra d'observacions del vector (yi, x2i, x3i,..., xki) és una mostra aleatòria simple i, per tant, el vector (yi, X'i) és independent del vector (yi, X'j) * Esperança condicionada de les pertorbacions nul·la: E (Ui/X'i) = 0 * Correcta identificació: la matriu de regressors (X) ha de tenir : rg (X) = K ≤ N * Homoscedasticitat: Var (U/X) = S2I L'estimador mínim quadràtic ordinari (MCO) de B és l'estimador lineal i no esbiaixat òptim (ELIO o en anglès BLUE: best linear unbiased estimator), és a dir, l'estimador MQO és l'estimador eficient dins de la classe d'estimadors lineals i no esbiaixats. Aquest teorema es basa en 10 supòsits, anomenats, Supòsits de Gauss-Markov, que serveixen com a hipòtesi per a la demostració del mateix: 1. * El model està correctament especificat. 2. * Ha de ser lineal en els paràmetres. 3. * El valor de la mitjana condicional és zero. 4. * Hi ha homoscedasticitat. 5. * No existeix correlació entre les pertorbacions. 6. * La covariància entre ui i xi és zero. 7. * El nombre d'observacions és major que el de paràmetres. 8. * Existeix variabilitat entre les x. 9. * No hi ha multi-colinealitat perfecta. 10. * Les x són no , és a dir, són fixes en mostres repetides. (ca) Gaussova–Markovova věta (někdy nazývaná i Gaussova věta) je tvrzení z matematické statistiky, které se týká regresní analýzy. Říká, že odhad metodou nejmenších čtverců (OLS) má nejnižší výběrový rozptyl (tj. je v tomto smyslu nejpřesnější) ze všech možných lineárních nestranných odhadů, pokud chyby v modelu lineární regrese jsou nekorelované, mají stejné rozptyly a nulovou střední hodnotu. Chyby nemusejí být normální, ani nemusejí být nezávislé a stejně rozdělené. Požadavek, aby byl odhad nestranný, nelze vypustit, protože existují vychýlené odhady s nižším rozptylem. Je to například (který navíc nepožaduje linearitu), odhady nebo jednoduše jakýkoli . Věta byla pojmenována po Carlu Friedrichu Gaussovi a Andreji Markovovi, ačkoli Gaussova práce časově výrazně předchází Markovovu. Ale zatímco Gauss odvodil výsledek za předpokladu nezávislosti a normality, Markov zredukoval předpoklady do výše uvedené obecnější podoby. Další zobecnění na nesférické chyby vypracoval . (cs) Στη στατιστική και στην οικονομετρία, το θεώρημα Γκάους-Μάρκοφ αναφέρεται στην αποτελεσματικότητα του εκτιμητή ελαχίστων τετραγώνων του γραμμικού μοντέλου παλινδρόμησης. Η ονομασία του θεωρήματος οφείλεται στους μαθηματικούς Καρλ Φρίντριχ Γκάους και . Το θεώρημα διατυπώνει το εξής: Δεδομένων συγκεκριμένων υποθέσεων, ο εκτιμητής ελαχίστων τετραγώνων είναι αμερόληπτος και ο πιο αποτελεσματικός γραμμικός εκτιμητής των συντελεστών του μοντέλου γραμμικής παλινδρόμησης. (el) In der Stochastik ist der Satz von Gauß-Markow (in der Literatur ist auch die englische Transkription Markov zu finden, also Satz von Gauß-Markov) bzw. Satz von Gauß ein mathematischer Satz über die Klasse der linearen erwartungstreuen Schätzfunktionen. Er stellt eine theoretische Rechtfertigung der Methode der kleinsten Quadrate dar und ist nach den Mathematikern Carl Friedrich Gauß und Andrei Andrejewitsch Markow benannt. Es wird in neuer Zeit vorgeschlagen, dass der Satz einfach Satz von Gauß heißen sollte, da die Zuschreibung zu Markow auf einem Irrtum beruht (siehe ). Der Satz besagt, dass in einem linearen Regressionsmodell, in dem die Störgrößen einen Erwartungswert von null und eine konstante Varianz haben sowie unkorreliert sind (Annahmen des klassischen linearen Regressionsmodells), der Kleinste-Quadrate-Schätzer – vorausgesetzt er existiert – ein bester linearer erwartungstreuer Schätzer, kurz BLES (englisch Best Linear Unbiased Estimator, kurz: BLUE) ist. Hierbei bedeutet der „beste“, dass er – innerhalb der Klasse der linearen erwartungstreuen Schätzer – die „kleinste“ Kovarianzmatrix aufweist und somit minimalvariant ist. Die Störgrößen müssen nicht notwendigerweise normalverteilt sein. Sie müssen im Fall der verallgemeinerten Kleinste-Quadrate-Schätzung auch nicht unabhängig und identisch verteilt sein. (de) In statistics, the Gauss–Markov theorem (or simply Gauss theorem for some authors) states that the ordinary least squares (OLS) estimator has the lowest sampling variance within the class of linear unbiased estimators, if the errors in the linear regression model are uncorrelated, have equal variances and expectation value of zero. The errors do not need to be normal, nor do they need to be independent and identically distributed (only uncorrelated with mean zero and homoscedastic with finite variance). The requirement that the estimator be unbiased cannot be dropped, since biased estimators exist with lower variance. See, for example, the James–Stein estimator (which also drops linearity), ridge regression, or simply any degenerate estimator. The theorem was named after Carl Friedrich Gauss and Andrey Markov, although Gauss' work significantly predates Markov's. But while Gauss derived the result under the assumption of independence and normality, Markov reduced the assumptions to the form stated above. A further generalization to non-spherical errors was given by Alexander Aitken. (en) En estadística, el Teorema de Gauss-Márkov, formulado por Carl Friedrich Gauss y Andréi Márkov, establece que en un modelo lineal general (MLG) en el que se establezcan los siguientes supuestos: * Correcta especificación: el MLG ha de ser una combinación lineal de los parámetros y no necesariamente de las variables: * Muestreo aleatorio simple: la muestra de observaciones del vector es una muestra aleatoria simple y, por lo tanto, el vector es independiente del vector * Esperanza condicionada de las perturbaciones nula: * Correcta identificación: la matriz de regresoras (X) ha de tener : * Homocedasticidad: el estimador mínimo cuadrático ordinario (MCO) de B es el estimador lineal e insesgado óptimo (ELIO o BLUE: best linear unbiased estimator), es decir, el estimador MCO es el estimador eficiente dentro de la clase de estimadores lineales e insesgados. Dicho teorema se basa en 10 supuestos, denominados «supuestos de Gauss-Márkov»; que sirven como hipótesis a la demostración del mismo: 1. * El modelo está correctamente especificado 2. * Debe ser lineal en los parámetros 3. * El valor de la media condicional es cero 4. * Hay homocedasticidad 5. * No existe correlación entre las perturbaciones 6. * La covarianza entre y es cero 7. * El número de observaciones es mayor que el de parámetros 8. * Existe variabilidad entre los 9. * No hay multicolinealidad perfecta 10. * Las son no estocásticas, es decir, son fijas en muestras repetidas. (es) En statistiques, le théorème de Gauss–Markov, nommé ainsi d'après Carl Friedrich Gauss et Andrei Markov, énonce que dans un modèle linéaire dans lequel les erreurs ont une espérance nulle, sont non corrélées et dont les variances sont égales, le meilleur estimateur linéaire non biaisé des coefficients est l'estimateur des moindres carrés.Plus généralement, le meilleur estimateur linéaire non biaisé d'une combinaison linéaire des coefficients est son estimateur par les moindres carrés. On ne suppose pas que les erreurs possèdent une loi normale, ni qu'elles sont indépendantes (seulement non corrélées), ni qu'elles possèdent la même loi de probabilité. (fr) Il teorema di Gauss-Markov, così chiamato in onore dei matematici Carl Friedrich Gauss e Andrej Markov, è un teorema in statistica matematica che afferma che in un modello lineare in cui i disturbi hanno valore atteso nullo, sono incorrelati e omoschedastici, gli stimatori lineari corretti più efficienti sono gli stimatori ottenuti con il metodo dei minimi quadrati. (it) ガウス=マルコフの定理(ガウス=マルコフのていり)とは、あるパラメタを観測値の線形結合で推定するとき残差を最小にするように最小二乗法で求めた推定量が、最良線形不偏推定量になることを保証する定理である。カール・フリードリヒ・ガウスとアンドレイ・マルコフによって示された。 (ja) 통계학에서 가우스-마르코프 정리(영어: Gauss–Markov theorem, 또는 일부 저자는 가우스 정리라고 표기)는 선형 회귀 모형의 오차가 상관관계가 없고, 오차의 분산이 일정하며, 오차의 기대값이 0이며 설명변수가 외생변수일 때 보통 최소제곱 추정량(OLS)은 다른 선형 불편 추정량에 비하여 표본 분산이 가장 낮다고 명시한다. 오차항이 정규분포를 따를 필요는 없다. 이 정리는 비록 가우스의 작품이 마르코프의 작품보다 현저히 앞섰지만 칼 프리드리히 가우스와 안드레이 마르코프의 이름을 따서 명명되었다. 그러나 가우스가 독립성과 정규성을 가정하여 그 결과를 도출하는 동안 마르코프는 위에서 언급한 형식으로 가정들을 줄였다. 비구형 오류에 대한 추가 일반화는 알렉산더 에이트켄에 의해 이루어졌다. (ko) Twierdzenie Gaussa-Markowa – twierdzenie statystyki mówiące, że estymator najmniejszych kwadratów jest (o ile jest on stosowalny) najlepszym (tj. mającym najmniejszą wariancję) estymatorem spośród liniowych, nieobciążonych estymatorów liniowego modelu regresji. (pl) Gauss-Markov-teoremet innebär att av alla linjära väntevärdesriktiga estimatorer har Minstakvadratmetoden (OLS, givet homoskedasticitet) den minsta variansen. (sv) У статистиці, теорема Гаусса-Маркова (або просто теорема Гаусса для деяких акторів) стверджує, що у звичайному методі найменших квадратів (ЗМНК) оцінювач має найменшу дисперсію вибірки в межах класу від лінійних неупереджених оцінок, якщо помилки у лінійній регресійній моделі є некорильованими, мають рівні дисперсії та очікуване значення нуля. Помилки не повинні бути нормальними, вони також не повинні бути незалежними та однаково розподіленими (лише некорильованими із середнім нулем та гомосцедастичними з кінцевою дисперсією). Не можна відмовлятись від вимоги щодо неупередженості оцінювача, оскільки упереджені оцінювачі існують з меншою дисперсією. Дивіться, наприклад (який також знижує лінійність), регресійну регресію, або просто будь-який вироджений оцінювач. Теорема була названа на честь Карла Фрідріха Гаусса та Андрія Маркова, хоча робота Гаусса значно передує роботі Маркова. Але в той час, як Гаусс отримував результат, припускаючи незалежність і нормальність, Марков звів припущення до форми, зазначеної вище. Подальше узагальнення до сферичних помилок дав . (uk) 高斯-馬可夫定理(英語:Gauss-Markov Theorem),在統計學中陳述的是在线性回归模型中,如果线性模型满足高斯马尔可夫假定,则回归系数的最佳线性无偏估计(BLUE, Best Linear unbiased estimator)就是普通最小二乘法估计。 * 这里最佳的意思是指相较于其他估计量有更小方差的估计量,同时把对估计量的寻找限制在所有可能的线性无偏估计量中。 * 值得注意的是这里不需要假定误差满足同分布或正态分布。 * 线性模型指对于参数是线性的,因此线性模型并非看起来那么有约束性,通过适当的对y与x做变换(如logy与x),可以得到y与x的非线性关系,但并未跳出线性模型的范畴。 (zh) Рассматривается модель парной регрессии, в которой наблюдения связаны с следующей зависимостью: . На основе выборочных наблюдений оценивается уравнение регрессии . Теорема Гаусса—Маркова гласит: Если данные обладают следующими свойствами: 1. * Модель данных правильно специфицирована; 2. * Все детерминированы и не все равны между собой; 3. * Ошибки не носят систематического характера, то есть ; 4. * Дисперсия ошибок одинакова и равна некоторой ; 5. * Ошибки некоррелированы, то есть ; — то в этих условиях оценки метода наименьших квадратов оптимальны в классе линейных несмещённых оценок. (ru) |
dbo:wikiPageExternalLink | https://web.archive.org/web/20040213071852/http:/emlab.berkeley.edu/GMTheorem/index.html http://jeff560.tripod.com/g.html http://www.xycoon.com/ols1.htm https://archive.org/details/courseeconometri00gold_524 https://archive.org/details/courseeconometri00gold_524/page/n92 https://archive.org/details/principlesofecon0000thei https://archive.org/details/principlesofecon0000thei/page/101 |
dbo:wikiPageID | 170353 (xsd:integer) |
dbo:wikiPageLength | 25922 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1123747334 (xsd:integer) |
dbo:wikiPageWikiLink | dbr:Carl_Friedrich_Gauss dbr:Endogeneity_(econometrics) dbr:Best_linear_unbiased_prediction dbr:Bias_of_an_estimator dbr:Ridge_regression dbr:Degenerate_distribution dbr:Design_matrix dbr:James–Stein_estimator dbr:Errors_and_residuals dbr:Estimator dbr:Omitted-variable_bias dbr:Class_(set_theory) dbr:Cobb–Douglas_production_function dbr:Generalized_least_squares dbr:Condition_number dbr:Homoscedasticity dbr:Orthogonality dbr:Andrey_Markov dbr:Statistics dbr:Measurement_uncertainty dbr:Autocorrelation dbr:Ball_(mathematics) dbr:Transpose dbr:Errors_and_residuals_in_statistics dbr:Linear_regression dbr:Minimum-variance_unbiased_estimator dbr:Alexander_Aitken dbr:Data_transformation_(statistics) dbr:Errors-in-variables_models dbr:Normal_distribution dbr:Rank_(linear_algebra) dbc:Theorems_in_statistics dbr:Econometrics dbr:Hessian_matrix dbr:Dot_product dbr:If_and_only_if dbr:Independent_and_identically_distributed_random_variables dbr:Natural_logarithm dbr:Ordinary_least_squares dbr:Instrumental_variable dbr:Mean_squared_error dbr:Multicollinearity dbr:Variance_inflation_factor dbr:Outer_product dbr:Heteroscedasticity dbr:Uncorrelated dbr:Linear_regression_model dbr:Sampling_variance dbr:Independent_and_identically_distributed dbr:Heteroskedasticity dbr:Homoscedastic dbr:Wikt:simultaneity |
dbp:wikiPageUsesTemplate | dbt:Regression_bar dbt:Cite_book dbt:Distinguish dbt:Redirect dbt:Reflist dbt:Short_description dbt:Least_squares_and_regression_analysis |
dcterms:subject | dbc:Theorems_in_statistics |
rdf:type | owl:Thing yago:WikicatMathematicalTheorems yago:WikicatTheorems yago:WikicatStatisticalTheorems yago:Abstraction100002137 yago:Communication100033020 yago:Message106598915 yago:Proposition106750804 yago:Statement106722453 yago:Theorem106752293 |
rdfs:comment | في الإحصاء، سميت مبرهنة غاوس-ماركوف هكذا نسبة إلى كارل فريدريش غاوس وآندريه ماركوف. تنص هاته المبرهنة على أنه في نموذج الانحدار الخطي حيث احتمال الأخطاء يساوي الصفر وحيث لا ترتبط ببعضها البعض وحيث تبايناتها متساوية، أحسن تقدير خطي في معاملاته، هو تقدير المربعات الدنيا الاعتيادية. (ar) Στη στατιστική και στην οικονομετρία, το θεώρημα Γκάους-Μάρκοφ αναφέρεται στην αποτελεσματικότητα του εκτιμητή ελαχίστων τετραγώνων του γραμμικού μοντέλου παλινδρόμησης. Η ονομασία του θεωρήματος οφείλεται στους μαθηματικούς Καρλ Φρίντριχ Γκάους και . Το θεώρημα διατυπώνει το εξής: Δεδομένων συγκεκριμένων υποθέσεων, ο εκτιμητής ελαχίστων τετραγώνων είναι αμερόληπτος και ο πιο αποτελεσματικός γραμμικός εκτιμητής των συντελεστών του μοντέλου γραμμικής παλινδρόμησης. (el) En statistiques, le théorème de Gauss–Markov, nommé ainsi d'après Carl Friedrich Gauss et Andrei Markov, énonce que dans un modèle linéaire dans lequel les erreurs ont une espérance nulle, sont non corrélées et dont les variances sont égales, le meilleur estimateur linéaire non biaisé des coefficients est l'estimateur des moindres carrés.Plus généralement, le meilleur estimateur linéaire non biaisé d'une combinaison linéaire des coefficients est son estimateur par les moindres carrés. On ne suppose pas que les erreurs possèdent une loi normale, ni qu'elles sont indépendantes (seulement non corrélées), ni qu'elles possèdent la même loi de probabilité. (fr) Il teorema di Gauss-Markov, così chiamato in onore dei matematici Carl Friedrich Gauss e Andrej Markov, è un teorema in statistica matematica che afferma che in un modello lineare in cui i disturbi hanno valore atteso nullo, sono incorrelati e omoschedastici, gli stimatori lineari corretti più efficienti sono gli stimatori ottenuti con il metodo dei minimi quadrati. (it) ガウス=マルコフの定理(ガウス=マルコフのていり)とは、あるパラメタを観測値の線形結合で推定するとき残差を最小にするように最小二乗法で求めた推定量が、最良線形不偏推定量になることを保証する定理である。カール・フリードリヒ・ガウスとアンドレイ・マルコフによって示された。 (ja) 통계학에서 가우스-마르코프 정리(영어: Gauss–Markov theorem, 또는 일부 저자는 가우스 정리라고 표기)는 선형 회귀 모형의 오차가 상관관계가 없고, 오차의 분산이 일정하며, 오차의 기대값이 0이며 설명변수가 외생변수일 때 보통 최소제곱 추정량(OLS)은 다른 선형 불편 추정량에 비하여 표본 분산이 가장 낮다고 명시한다. 오차항이 정규분포를 따를 필요는 없다. 이 정리는 비록 가우스의 작품이 마르코프의 작품보다 현저히 앞섰지만 칼 프리드리히 가우스와 안드레이 마르코프의 이름을 따서 명명되었다. 그러나 가우스가 독립성과 정규성을 가정하여 그 결과를 도출하는 동안 마르코프는 위에서 언급한 형식으로 가정들을 줄였다. 비구형 오류에 대한 추가 일반화는 알렉산더 에이트켄에 의해 이루어졌다. (ko) Twierdzenie Gaussa-Markowa – twierdzenie statystyki mówiące, że estymator najmniejszych kwadratów jest (o ile jest on stosowalny) najlepszym (tj. mającym najmniejszą wariancję) estymatorem spośród liniowych, nieobciążonych estymatorów liniowego modelu regresji. (pl) Gauss-Markov-teoremet innebär att av alla linjära väntevärdesriktiga estimatorer har Minstakvadratmetoden (OLS, givet homoskedasticitet) den minsta variansen. (sv) 高斯-馬可夫定理(英語:Gauss-Markov Theorem),在統計學中陳述的是在线性回归模型中,如果线性模型满足高斯马尔可夫假定,则回归系数的最佳线性无偏估计(BLUE, Best Linear unbiased estimator)就是普通最小二乘法估计。 * 这里最佳的意思是指相较于其他估计量有更小方差的估计量,同时把对估计量的寻找限制在所有可能的线性无偏估计量中。 * 值得注意的是这里不需要假定误差满足同分布或正态分布。 * 线性模型指对于参数是线性的,因此线性模型并非看起来那么有约束性,通过适当的对y与x做变换(如logy与x),可以得到y与x的非线性关系,但并未跳出线性模型的范畴。 (zh) El Teorema de Gauss-Màrkov, en estadística, formulat per Carl Friedrich Gauss i Andrei Màrkov, estableix que en un model lineal general (MLG) en el qual s'estableixin els següents supòsits: * Correcta especificació: el MLG ha de ser una combinació lineal dels paràmetres (B) i no necessàriament de les variables: Y = XB+U * Mostreig aleatori simple: la mostra d'observacions del vector (yi, x2i, x3i,..., xki) és una mostra aleatòria simple i, per tant, el vector (yi, X'i) és independent del vector (yi, X'j) * Esperança condicionada de les pertorbacions nul·la: E (Ui/X'i) = 0 * Correcta identificació: la matriu de regressors (X) ha de tenir : rg (X) = K ≤ N * Homoscedasticitat: Var (U/X) = S2I (ca) Gaussova–Markovova věta (někdy nazývaná i Gaussova věta) je tvrzení z matematické statistiky, které se týká regresní analýzy. Říká, že odhad metodou nejmenších čtverců (OLS) má nejnižší výběrový rozptyl (tj. je v tomto smyslu nejpřesnější) ze všech možných lineárních nestranných odhadů, pokud chyby v modelu lineární regrese jsou nekorelované, mají stejné rozptyly a nulovou střední hodnotu. Chyby nemusejí být normální, ani nemusejí být nezávislé a stejně rozdělené. Požadavek, aby byl odhad nestranný, nelze vypustit, protože existují vychýlené odhady s nižším rozptylem. Je to například (který navíc nepožaduje linearitu), odhady nebo jednoduše jakýkoli . (cs) In der Stochastik ist der Satz von Gauß-Markow (in der Literatur ist auch die englische Transkription Markov zu finden, also Satz von Gauß-Markov) bzw. Satz von Gauß ein mathematischer Satz über die Klasse der linearen erwartungstreuen Schätzfunktionen. Er stellt eine theoretische Rechtfertigung der Methode der kleinsten Quadrate dar und ist nach den Mathematikern Carl Friedrich Gauß und Andrei Andrejewitsch Markow benannt. Es wird in neuer Zeit vorgeschlagen, dass der Satz einfach Satz von Gauß heißen sollte, da die Zuschreibung zu Markow auf einem Irrtum beruht (siehe ). Der Satz besagt, dass in einem linearen Regressionsmodell, in dem die Störgrößen einen Erwartungswert von null und eine konstante Varianz haben sowie unkorreliert sind (Annahmen des klassischen linearen Regressionsmodell (de) En estadística, el Teorema de Gauss-Márkov, formulado por Carl Friedrich Gauss y Andréi Márkov, establece que en un modelo lineal general (MLG) en el que se establezcan los siguientes supuestos: * Correcta especificación: el MLG ha de ser una combinación lineal de los parámetros y no necesariamente de las variables: * Muestreo aleatorio simple: la muestra de observaciones del vector es una muestra aleatoria simple y, por lo tanto, el vector es independiente del vector * Esperanza condicionada de las perturbaciones nula: * Correcta identificación: la matriz de regresoras (X) ha de tener : * Homocedasticidad: (es) In statistics, the Gauss–Markov theorem (or simply Gauss theorem for some authors) states that the ordinary least squares (OLS) estimator has the lowest sampling variance within the class of linear unbiased estimators, if the errors in the linear regression model are uncorrelated, have equal variances and expectation value of zero. The errors do not need to be normal, nor do they need to be independent and identically distributed (only uncorrelated with mean zero and homoscedastic with finite variance). The requirement that the estimator be unbiased cannot be dropped, since biased estimators exist with lower variance. See, for example, the James–Stein estimator (which also drops linearity), ridge regression, or simply any degenerate estimator. (en) Рассматривается модель парной регрессии, в которой наблюдения связаны с следующей зависимостью: . На основе выборочных наблюдений оценивается уравнение регрессии . Теорема Гаусса—Маркова гласит: Если данные обладают следующими свойствами: 1. * Модель данных правильно специфицирована; 2. * Все детерминированы и не все равны между собой; 3. * Ошибки не носят систематического характера, то есть ; 4. * Дисперсия ошибок одинакова и равна некоторой ; 5. * Ошибки некоррелированы, то есть ; (ru) У статистиці, теорема Гаусса-Маркова (або просто теорема Гаусса для деяких акторів) стверджує, що у звичайному методі найменших квадратів (ЗМНК) оцінювач має найменшу дисперсію вибірки в межах класу від лінійних неупереджених оцінок, якщо помилки у лінійній регресійній моделі є некорильованими, мають рівні дисперсії та очікуване значення нуля. Помилки не повинні бути нормальними, вони також не повинні бути незалежними та однаково розподіленими (лише некорильованими із середнім нулем та гомосцедастичними з кінцевою дисперсією). Не можна відмовлятись від вимоги щодо неупередженості оцінювача, оскільки упереджені оцінювачі існують з меншою дисперсією. Дивіться, наприклад (який також знижує лінійність), регресійну регресію, або просто будь-який вироджений оцінювач. (uk) |
rdfs:label | مبرهنة غاوس-ماركوف (ar) Teorema de Gauss-Màrkov (ca) Gaussova–Markovova věta (cs) Satz von Gauß-Markow (de) Θεώρημα Γκάους-Μάρκοφ (el) Teorema de Gauss-Márkov (es) Gauss–Markov theorem (en) Théorème de Gauss-Markov (fr) Teorema di Gauss-Markov (it) ガウス=マルコフの定理 (ja) 가우스-마르코프 정리 (ko) Twierdzenie Gaussa-Markowa (pl) Теорема Гаусса — Маркова (ru) 高斯-马尔可夫定理 (zh) Gauss–Markovs sats (sv) Теорема Гаусса — Маркова (uk) |
owl:differentFrom | dbr:Gauss–Markov_process |
owl:sameAs | freebase:Gauss–Markov theorem wikidata:Gauss–Markov theorem dbpedia-ar:Gauss–Markov theorem dbpedia-ca:Gauss–Markov theorem dbpedia-cs:Gauss–Markov theorem dbpedia-de:Gauss–Markov theorem dbpedia-el:Gauss–Markov theorem dbpedia-es:Gauss–Markov theorem dbpedia-fa:Gauss–Markov theorem dbpedia-fr:Gauss–Markov theorem dbpedia-he:Gauss–Markov theorem dbpedia-it:Gauss–Markov theorem dbpedia-ja:Gauss–Markov theorem dbpedia-ko:Gauss–Markov theorem dbpedia-pl:Gauss–Markov theorem dbpedia-ru:Gauss–Markov theorem dbpedia-sv:Gauss–Markov theorem dbpedia-uk:Gauss–Markov theorem dbpedia-zh:Gauss–Markov theorem https://global.dbpedia.org/id/3xrtQ |
prov:wasDerivedFrom | wikipedia-en:Gauss–Markov_theorem?oldid=1123747334&ns=0 |
foaf:isPrimaryTopicOf | wikipedia-en:Gauss–Markov_theorem |
is dbo:wikiPageRedirects of | dbr:Gauss-Markov_theorem dbr:BLUE dbr:Best_Linear_Unbiased_Estimator dbr:Linear_estimator dbr:Blue_(statistics) dbr:Gauss-Markov-Aitken_theorem dbr:Gauss-Markov_assumptions dbr:Gauss-Markov_model dbr:Gauss-Markow_least_squares_theorem dbr:Gauss_markov_theorem dbr:Gauss–Markov_assumptions dbr:Gauss–Markov_model dbr:Gauss–Markov–Aitken_theorem dbr:Best_linear_unbiased_estimator dbr:Spherical_error |
is dbo:wikiPageWikiLink of | dbr:Carl_Friedrich_Gauss dbr:Endogeneity_(econometrics) dbr:Park_test dbr:Variance_function dbr:History_of_geodesy dbr:Best_linear_unbiased_prediction dbr:Bias–variance_tradeoff dbr:Regularized_least_squares dbr:Ridge_regression dbr:List_of_inequalities dbr:List_of_mathematical_proofs dbr:Estimator dbr:Gauss–Markov_process dbr:Generalized_linear_model dbr:Omitted-variable_bias dbr:Generalized_least_squares dbr:Moment_matrix dbr:Mills_ratio dbr:Optimal_design dbr:Andrey_Markov dbr:Simultaneous_equations_model dbr:Kriging dbr:Gauss-Markov_theorem dbr:Gauss–Markov dbr:Principal_component_regression dbr:Autocorrelation dbr:BLUE dbr:Weighted_arithmetic_mean dbr:Least_squares dbr:Linear_least_squares dbr:Linear_regression dbr:Stein's_example dbr:Data_transformation_(statistics) dbr:List_of_things_named_after_Carl_Friedrich_Gauss dbr:Regression_analysis dbr:Irénée-Jules_Bienaymé dbr:Homoscedasticity_and_heteroscedasticity dbr:Mixed_model dbr:Minimum_mean_square_error dbr:Ordinary_least_squares dbr:Best_Linear_Unbiased_Estimator dbr:Weighted_least_squares dbr:List_of_statistics_articles dbr:List_of_theorems dbr:List_of_things_named_after_Andrey_Markov dbr:Polynomial_regression dbr:Taguchi_methods dbr:Non-linear_mixed-effects_modeling_software dbr:Linear_estimator dbr:Blue_(statistics) dbr:Gauss-Markov-Aitken_theorem dbr:Gauss-Markov_assumptions dbr:Gauss-Markov_model dbr:Gauss-Markow_least_squares_theorem dbr:Gauss_markov_theorem dbr:Gauss–Markov_assumptions dbr:Gauss–Markov_model dbr:Gauss–Markov–Aitken_theorem dbr:Best_linear_unbiased_estimator dbr:Spherical_error |
is foaf:primaryTopic of | wikipedia-en:Gauss–Markov_theorem |