Stein's example (original) (raw)

About DBpedia

Le paradoxe de Stein est un résultat de statistique, dû au statisticien Charles Stein, exposé dans un article de 1956, puis étendu dans un article co-écrit avec Willard James en 1961. Ce résultat n'est pas paradoxal à proprement parler, mais surprenant et contre intuitif. Il constitue un pas important dans l'introduction des (en) (shrinkage estimators en anglais) en montrant que l' (en) domine strictement l'estimateur du maximum de vraisemblance. Son caractère paradoxal vient du fait qu'il justifie de combiner des observations sans rapport entre elles pour estimer leurs espérances.

Property Value
dbo:abstract In decision theory and estimation theory, Stein's example (also known as Stein's phenomenon or Stein's paradox) is the observation that when three or more parameters are estimated simultaneously, there exist combined estimators more accurate on average (that is, having lower expected mean squared error) than any method that handles the parameters separately. It is named after Charles Stein of Stanford University, who discovered the phenomenon in 1955. An intuitive explanation is that optimizing for the mean-squared error of a combined estimator is not the same as optimizing for the errors of separate estimators of the individual parameters. In practical terms, if the combined error is in fact of interest, then a combined estimator should be used, even if the underlying parameters are independent. If one is instead interested in estimating an individual parameter, then using a combined estimator does not help and is in fact worse. (en) Le paradoxe de Stein est un résultat de statistique, dû au statisticien Charles Stein, exposé dans un article de 1956, puis étendu dans un article co-écrit avec Willard James en 1961. Ce résultat n'est pas paradoxal à proprement parler, mais surprenant et contre intuitif. Il constitue un pas important dans l'introduction des (en) (shrinkage estimators en anglais) en montrant que l' (en) domine strictement l'estimateur du maximum de vraisemblance. Son caractère paradoxal vient du fait qu'il justifie de combiner des observations sans rapport entre elles pour estimer leurs espérances. (fr) L'esempio Stein (o fenomeno o paradosso), in teoria delle decisioni e teoria della stima, è il fenomeno per cui, quando tre o più parametri sono stimati contemporaneamente esiste uno stimatore combinato più efficiente (con un minore errore quadratico medio) di qualsiasi metodo che gestisca i parametri separatamente. Ciò è sorprendente in quanto i parametri e le misure potrebbero essere del tutto indipendenti. Il fenomeno prende il nome dal suo scopritore, . (it) Paradoks Steina (także przykład lub efekt Steina) – rezultat w teorii estymacji i teorii decyzji, stanowiący, że przy oszacowywaniu więcej niż dwóch niezależnych parametrów jednocześnie istnieją specjalne łączne estymatory, które mają przeciętnie wyższą precyzję (rozumianą jako niższy ogólny błąd średniokwadratowy) niż średnie arytmetyczne parametrów w próbach z osobna czy dowolna inna metoda estymująca te parametry w izolacji. Wynik ten został odkryty przez Charlesa Steina w 1955 roku, choć zjawisko było wykorzystywane implicite już wcześniej w technikach wnioskowania bayesowskiego. Przykładowo, jeśli badacz chce oszacować miary zdolności kilku sportowców, może obliczyć dla każdej osoby zwykłą średnią liczbę punktów zdobytych w grach w trakcie jednego sezonu. Uzyska jednak wyniki, które są ogólnie precyzyjniejsze i pozwalają na trafniejsze prognozy, jeśli zastosuje względem każdej z takich średnich specyficzną poprawkę (tak jak np. w ). W przedstawionym przykładzie agregowane są dane cechujące się realnymi zależnościami, jednakże estymator J–S tego w żaden sposób nie wykorzystuje – paradoks Steina występuje w zbiorze dowolnych parametrów, a jego dowód nie zakłada ich zależności. Oznacza to, że ogólną precyzję szacowania zdolności sportowców zwiększy także estymowanie ich jednocześnie z zupełnie niepowiązaną zmienną, taką jak średnia cen samochodów na rynku. Rezultat opisano pierwotnie dla zmiennych o rozkładzie normalnym, występuje jednak także w niektórych innych rozkładach. Geometryczną intuicją ilustrującą sens paradoksu jest spostrzeżenie, że w przestrzeni kilkuwymiarowej relatywnie niewielkie przesunięcie zbioru oszacowań (obarczonych błędem losowym) w dowolnym zgodnym kierunku powinno w przeciętnym przypadku zmniejszyć błąd ponad połowy z nich. Efekt nie daje żadnej gwarancji, że jedno konkretne oszacowanie zostanie wskutek tego poprawione – działa na poziomie całego zbioru. Estymatory wykorzystujące efekt Steina nazywa się estymatorami minimalizującymi błąd średniokwadratowy (ang. shrinkage estimators). Zjawisko to jest związane ze statystycznymi technikami regularyzacji i używane pośrednio m.in. w regresjach z efektami losowymi, regresjach mieszanych, metodzie LASSO oraz w . Zauważono także matematyczną równoważność paradoksu Steina (który występuje w przestrzeniach co najmniej trójwymiarowych) z zachowaniem wielowymiarowego ruchu Browna (w którym każda trajektoria w takich przestrzeniach jest zbiorem nigdziegęstym). (pl)
dbo:wikiPageExternalLink http://www-stat.stanford.edu/~ckirby/brad/other/Article1977.pdf http://projecteuclid.org/euclid.bsmsp/1200501656 http://www.statslab.cam.ac.uk/~rjs57/SteinParadox.pdf
dbo:wikiPageID 1887212 (xsd:integer)
dbo:wikiPageLength 10265 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1112857476 (xsd:integer)
dbo:wikiPageWikiLink dbr:Scientific_American dbr:Decision_theory dbr:Dominating_decision_rule dbr:James–Stein_estimator dbr:Maximum_likelihood_estimation dbr:Estimation_theory dbr:Estimator dbr:Gauss–Markov_theorem dbr:Stanford_University dbr:Strict dbr:Proof_of_Stein's_example dbc:Estimation_theory dbr:Admissible_decision_rule dbr:Least_squares dbr:Normal_distribution dbr:Random_variable dbc:Mathematical_examples dbr:Risk_function dbc:Statistical_paradoxes dbr:Brownian_motion dbr:Mean_squared_error dbr:Charles_Stein_(statistician) dbr:Channel_estimation dbr:Equivariant_estimation dbr:Statistical_independence
dbp:wikiPageUsesTemplate dbt:Citation dbt:Cite_conference dbt:Reflist dbt:Short_description
dct:subject dbc:Estimation_theory dbc:Mathematical_examples dbc:Statistical_paradoxes
rdf:type yago:WikicatMathematicalExamples yago:WikicatParadoxes yago:WikicatStatisticalParadoxes yago:Abstraction100002137 yago:Cognition100023271 yago:Communication100033020 yago:Contradiction107206887 yago:Example105820620 yago:Falsehood106756407 yago:Information105816287 yago:Message106598915 yago:Paradox106724559 yago:PsychologicalFeature100023100 yago:Statement106722453
rdfs:comment Le paradoxe de Stein est un résultat de statistique, dû au statisticien Charles Stein, exposé dans un article de 1956, puis étendu dans un article co-écrit avec Willard James en 1961. Ce résultat n'est pas paradoxal à proprement parler, mais surprenant et contre intuitif. Il constitue un pas important dans l'introduction des (en) (shrinkage estimators en anglais) en montrant que l' (en) domine strictement l'estimateur du maximum de vraisemblance. Son caractère paradoxal vient du fait qu'il justifie de combiner des observations sans rapport entre elles pour estimer leurs espérances. (fr) L'esempio Stein (o fenomeno o paradosso), in teoria delle decisioni e teoria della stima, è il fenomeno per cui, quando tre o più parametri sono stimati contemporaneamente esiste uno stimatore combinato più efficiente (con un minore errore quadratico medio) di qualsiasi metodo che gestisca i parametri separatamente. Ciò è sorprendente in quanto i parametri e le misure potrebbero essere del tutto indipendenti. Il fenomeno prende il nome dal suo scopritore, . (it) In decision theory and estimation theory, Stein's example (also known as Stein's phenomenon or Stein's paradox) is the observation that when three or more parameters are estimated simultaneously, there exist combined estimators more accurate on average (that is, having lower expected mean squared error) than any method that handles the parameters separately. It is named after Charles Stein of Stanford University, who discovered the phenomenon in 1955. (en) Paradoks Steina (także przykład lub efekt Steina) – rezultat w teorii estymacji i teorii decyzji, stanowiący, że przy oszacowywaniu więcej niż dwóch niezależnych parametrów jednocześnie istnieją specjalne łączne estymatory, które mają przeciętnie wyższą precyzję (rozumianą jako niższy ogólny błąd średniokwadratowy) niż średnie arytmetyczne parametrów w próbach z osobna czy dowolna inna metoda estymująca te parametry w izolacji. Wynik ten został odkryty przez Charlesa Steina w 1955 roku, choć zjawisko było wykorzystywane implicite już wcześniej w technikach wnioskowania bayesowskiego. (pl)
rdfs:label Paradoxe de Stein (fr) Paradosso di Stein (it) Paradoks Steina (pl) Stein's example (en)
owl:sameAs freebase:Stein's example yago-res:Stein's example wikidata:Stein's example dbpedia-fr:Stein's example dbpedia-it:Stein's example dbpedia-pl:Stein's example https://global.dbpedia.org/id/3bbK4
prov:wasDerivedFrom wikipedia-en:Stein's_example?oldid=1112857476&ns=0
foaf:isPrimaryTopicOf wikipedia-en:Stein's_example
is dbo:wikiPageRedirects of dbr:Stein's_paradox dbr:Stein's_phenomenon dbr:Stein_effect dbr:Stein_example dbr:Stein_phenomenon dbr:Stein’s_Paradox
is dbo:wikiPageWikiLink of dbr:James–Stein_estimator dbr:List_of_mathematical_examples dbr:Model_selection dbr:Proof_of_Stein's_example dbr:Admissible_decision_rule dbr:Fermi_problem dbr:Regression_toward_the_mean dbr:Poisson_distribution dbr:Shrinkage_(statistics) dbr:List_of_statistics_articles dbr:Stein's_paradox dbr:Stein's_phenomenon dbr:Stein_effect dbr:Stein_example dbr:Stein_phenomenon dbr:Stein’s_Paradox
is foaf:primaryTopic of wikipedia-en:Stein's_example