Fisher information (original) (raw)

About DBpedia

Die Fisher-Information (benannt nach dem Statistiker Ronald Fisher) ist eine Kenngröße aus der mathematischen Statistik, die für eine Familie von Wahrscheinlichkeitsdichten definiert werden kann und Aussagen über die bestmögliche Qualität von Parameterschätzungen in diesem Modell liefert.Die Fisher-Information spielt in der asymptotischen Theorie der Maximum-Likelihood-Schätzung eine wichtige Rolle und wird auch in der Bayes-Statistik bei der Berechnung von Priorverteilungen verwendet. Sie kann auch bei der Formulierung von Teststatistiken, wie beim Wald-Test verwendet werden.

Property Value
dbo:abstract Die Fisher-Information (benannt nach dem Statistiker Ronald Fisher) ist eine Kenngröße aus der mathematischen Statistik, die für eine Familie von Wahrscheinlichkeitsdichten definiert werden kann und Aussagen über die bestmögliche Qualität von Parameterschätzungen in diesem Modell liefert.Die Fisher-Information spielt in der asymptotischen Theorie der Maximum-Likelihood-Schätzung eine wichtige Rolle und wird auch in der Bayes-Statistik bei der Berechnung von Priorverteilungen verwendet. Sie kann auch bei der Formulierung von Teststatistiken, wie beim Wald-Test verwendet werden. (de) In mathematical statistics, the Fisher information (sometimes simply called information) is a way of measuring the amount of information that an observable random variable X carries about an unknown parameter θ of a distribution that models X. Formally, it is the variance of the score, or the expected value of the observed information. In Bayesian statistics, the asymptotic distribution of the posterior mode depends on the Fisher information and not on the prior (according to the Bernstein–von Mises theorem, which was anticipated by Laplace for exponential families). The role of the Fisher information in the asymptotic theory of maximum-likelihood estimation was emphasized by the statistician Ronald Fisher (following some initial results by Francis Ysidro Edgeworth). The Fisher information is also used in the calculation of the Jeffreys prior, which is used in Bayesian statistics. The Fisher information matrix is used to calculate the covariance matrices associated with maximum-likelihood estimates. It can also be used in the formulation of test statistics, such as the Wald test. Statistical systems of a scientific nature (physical, biological, etc.) whose likelihood functions obey shift invariance have been shown to obey maximum Fisher information. The level of the maximum depends upon the nature of the system constraints. (en) L'information de Fisher est une notion de statistique introduite par R.A. Fisher qui quantifie l'information relative à un paramètre contenue dans une distribution. Elle est définie comme l'espérance de l'information observée, ou encore comme la variance de la fonction de score. Dans le cas multi-paramétrique, on parle de matrice d'information de Fisher. (fr) フィッシャー情報量(フィッシャーじょうほうりょう、英: Fisher information) は、統計学や情報理論で登場する量で、確率変数が母数に関して持つ「情報」の量を表す。統計学者のロナルド・フィッシャーに因んで名付けられた。 (ja) 통계학에서 피셔 정보(영어: Fisher information)는 어떤 확률변수의 관측값으로부터, 확률변수의 분포의 매개변수에 대해 유추할 수 있는 정보의 양이다. (ko) In statistica e teoria dell'informazione, l'informazione di Fisher è la varianza dello score (derivata logaritmica) associato a una data funzione di verosimiglianza. L'informazione di Fisher, che prende il nome dal celebre genetista e statistico Ronald Fisher, può essere interpretata come l'ammontare di informazione contenuta da una variabile casuale osservabile , concernente un parametro non osservabile , da cui dipende la distribuzione di probabilità di . Denotando l'informazione di Fisher con , poiché il valore atteso dello score è nullo, la sua varianza è pari al suo momento del secondo ordine, così che: dove denota la funzione di verosimiglianza. Una scrittura equivalente è: ossia meno il valore atteso della derivata seconda della funzione di verosimiglianza rispetto a ; l'informazione di Fisher può dunque essere letta come una misura della curvatura della verosimiglianza in corrispondenza della stima di massima verosimiglianza per . Una verosimiglianza piatta, con una derivata seconda modesta, comporterà minore informazione, laddove una maggior curva apporterà una maggiore quantità di informazione. (it) In de wiskundige statistiek is de fisherinformatie van een familie kansdichtheden een grootheid die informatie geeft over de kwaliteit van parameterschattingen. De grootheid is genoemd naar de Britse statisticus Ronald Aylmer Fisher. (nl) Informacja Fishera – miara ilości informacji o jednym lub wielu nieznanych parametrach jaką niesie obserwowalna związana z nimi zmienna losowa . Może być rozumiana jako średnia dokładność oszacowania, jaką daje obserwacja danych – tj. wartość oczekiwana brzegowej wiarygodności estymatora parametru względem obserwacji danych W przypadku jednego parametru i zmiennej ciągłej, oraz przy założeniu określonego statystycznego modelu ich wzajemnej zależności wyraża ją równanie: Jest to więc druga pochodna, czyli pochodna gradientu funkcji prawdopodobieństwa, pozwalająca wyrazić szybkość jego zmian przy jej maksimum. Innymi słowy, informacja Fishera opisuje jak bardzo rozkład wiarygodności estymatora parametru względem obserwacji zmiennej losowej jest skupiony blisko maksimum, czyli jaką wariancją się cechuje. Dla porównania, entropia Shannona wyraża globalny średni przyrost informacji, jaką daje obserwacja danych, w estymatorze histogramowym przyjmując postać: Ronald Fisher opisał informację Fishera także jako wewnętrzną dokładność krzywej błędu (intrinsic accuracy of an error curve). W przypadku wielu parametrów jej wynik ma postać macierzy Hessego. Ma postaci zarówno dla zmiennych ciągłych, jak i dyskretnych. Miara ta występuje w wielu obszarach matematyki, statystyki i teorii informacji, w szczególności stanowi główną część nierówności Craméra-Rao. Zasada nieoznaczoności Heisenberga może być traktowana jako szczególny przypadek minimum Craméra-Rao, a oba wzory opierają się o nierówność Cauchy’ego-Schwarza. Entropię Shannona i informację Fishera, oraz inne miary informacji łączy tożsamość de Bruijna i dywergencja Kullbacka-Leiblera. (pl) Информа́ция Фи́шера — математическое ожидание квадрата относительной скорости изменения условной плотности вероятности . Эта функция названа в честь описавшего её Рональда Фишера. (ru) У математичній статистиці та теорії інформації інформацією за Фішером називається міра кількості інформації, що спостережувана випадкова змінна X несе про невідомий параметр θ, від якого залежить ймовірність X. Формально це дисперсія функції внеску вибірки. Ця функція названа на честь Рональда Фішера, що описав її. (uk) 数理统计学中,费希尔信息(英语:Fisher Information;有時稱作 information),或稱費雪訊息數,通常记作,是衡量观测所得的随机变量携带的关于未知母數的訊息量,其中的概率分布依赖于母數。费希尔信息由统计学家罗纳德·费希尔在弗朗西斯·伊西德罗·埃奇沃思工作的基础上提出,现常用于最大似然估计和中。 (zh)
dbo:wikiPageExternalLink https://zenodo.org/record/1449468 https://zenodo.org/record/1449470 https://archive.org/details/historyofstatist00stig
dbo:wikiPageID 598971 (xsd:integer)
dbo:wikiPageLength 44496 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1121357221 (xsd:integer)
dbo:wikiPageWikiLink dbr:Bayesian_statistics dbr:Product_rule dbr:Ronald_Fisher dbr:Entropy_power_inequality dbr:Euclidean_metric dbr:Normal_equations dbr:Trace_(matrix) dbr:Determinant dbr:Almost_everywhere dbr:Annals_of_Statistics dbr:Relative_entropy dbr:Variance dbr:Information_geometry dbr:Column_vector dbr:Matrix_(mathematics) dbr:Maximum_likelihood_estimation dbr:Estimator dbr:Quantum_Fisher_information dbr:Eigenvalue dbr:Entropy_(information_theory) dbr:Functional_(mathematics) dbr:Mode_(statistics) dbr:Moment_(mathematics) dbr:Multivariate_normal_distribution dbr:Mutual_information dbr:Optimal_design dbr:Ordered_vector_space dbr:Phase_transitions dbr:Bernoulli_trial dbr:Bernstein–von_Mises_theorem dbr:Likelihood dbr:Machine_learning dbr:Artificial_neural_networks dbr:Statistical_model dbr:Fubini–Study_metric dbr:Partial_derivative dbr:Sufficiency_(statistics) dbr:Mathematical_statistics dbc:Estimation_theory dbc:Design_of_experiments dbr:Cauchy–Schwarz_inequality dbr:Transpose dbr:Wilks'_theorem dbr:Least_squares dbr:Linear_model dbr:Minkowski–Steiner_formula dbr:Square_matrix dbr:Support_curve dbc:Information_theory dbr:Curvature dbr:Expected_value dbr:Francis_Ysidro_Edgeworth dbr:Parameter dbr:Formation_matrix dbr:Isoperimetric_inequality dbr:Journal_of_the_Royal_Statistical_Society dbr:Probability_density_function dbr:Nonlinear_regression dbr:Random_variable dbr:Riemannian_manifold dbr:Riemannian_metric dbr:Asymptotic_distribution dbr:Invariant_theory dbr:Jacobian_matrix dbr:Covariance_matrix dbr:Cramér–Rao_bound dbr:Jeffreys_prior dbr:Chain_rule dbr:Charles_Loewner dbr:Laplace dbr:Support_(mathematics) dbr:Efficiency_(statistics) dbr:Hessian_matrix dbr:Differential_geometry dbr:Dimension dbr:B._Roy_Frieden dbr:Positive_semidefinite_matrix dbr:Continuously_differentiable dbr:I.i.d. dbr:If_and_only_if dbr:Independent_and_identically_distributed_random_variables dbr:Information dbr:Information_theory dbr:Kullback–Leibler_divergence dbr:Brunn–Minkowski_theorem dbr:Natural_logarithm dbr:Catastrophic_interference dbr:Maximum_likelihood dbr:Minimum_Fisher_information dbr:Probability_mass_function dbr:Score_(statistics) dbr:Wald_test dbr:F-divergence dbr:Observed_information dbr:Statistical_theory dbr:Statistic dbr:Likelihood_Principle dbr:Fisher_information_metric dbr:Summary_statistics dbr:Maximum-likelihood_estimation dbr:Partial_order dbr:Statistical_Science dbr:Shift-invariant_system dbr:Parameter_space dbr:Self-information dbr:Order_parameter dbr:Sufficient_statistic dbr:Statistical_independence dbr:Statistically_independent dbr:Covariance_matrices dbr:Matrix_trace dbr:Prior_distribution dbr:Posterior_distribution dbr:Exponential_families dbr:Unbiased_estimator
dbp:wikiPageUsesTemplate dbt:= dbt:Citation_needed dbt:Cite_book dbt:Cite_journal dbt:ISBN dbt:Math dbt:Mvar dbt:Page_needed dbt:Reflist dbt:See_also dbt:Short_description
dct:subject dbc:Estimation_theory dbc:Design_of_experiments dbc:Information_theory
gold:hypernym dbr:Way
rdf:type owl:Thing
rdfs:comment Die Fisher-Information (benannt nach dem Statistiker Ronald Fisher) ist eine Kenngröße aus der mathematischen Statistik, die für eine Familie von Wahrscheinlichkeitsdichten definiert werden kann und Aussagen über die bestmögliche Qualität von Parameterschätzungen in diesem Modell liefert.Die Fisher-Information spielt in der asymptotischen Theorie der Maximum-Likelihood-Schätzung eine wichtige Rolle und wird auch in der Bayes-Statistik bei der Berechnung von Priorverteilungen verwendet. Sie kann auch bei der Formulierung von Teststatistiken, wie beim Wald-Test verwendet werden. (de) L'information de Fisher est une notion de statistique introduite par R.A. Fisher qui quantifie l'information relative à un paramètre contenue dans une distribution. Elle est définie comme l'espérance de l'information observée, ou encore comme la variance de la fonction de score. Dans le cas multi-paramétrique, on parle de matrice d'information de Fisher. (fr) フィッシャー情報量(フィッシャーじょうほうりょう、英: Fisher information) は、統計学や情報理論で登場する量で、確率変数が母数に関して持つ「情報」の量を表す。統計学者のロナルド・フィッシャーに因んで名付けられた。 (ja) 통계학에서 피셔 정보(영어: Fisher information)는 어떤 확률변수의 관측값으로부터, 확률변수의 분포의 매개변수에 대해 유추할 수 있는 정보의 양이다. (ko) In de wiskundige statistiek is de fisherinformatie van een familie kansdichtheden een grootheid die informatie geeft over de kwaliteit van parameterschattingen. De grootheid is genoemd naar de Britse statisticus Ronald Aylmer Fisher. (nl) Информа́ция Фи́шера — математическое ожидание квадрата относительной скорости изменения условной плотности вероятности . Эта функция названа в честь описавшего её Рональда Фишера. (ru) У математичній статистиці та теорії інформації інформацією за Фішером називається міра кількості інформації, що спостережувана випадкова змінна X несе про невідомий параметр θ, від якого залежить ймовірність X. Формально це дисперсія функції внеску вибірки. Ця функція названа на честь Рональда Фішера, що описав її. (uk) 数理统计学中,费希尔信息(英语:Fisher Information;有時稱作 information),或稱費雪訊息數,通常记作,是衡量观测所得的随机变量携带的关于未知母數的訊息量,其中的概率分布依赖于母數。费希尔信息由统计学家罗纳德·费希尔在弗朗西斯·伊西德罗·埃奇沃思工作的基础上提出,现常用于最大似然估计和中。 (zh) In mathematical statistics, the Fisher information (sometimes simply called information) is a way of measuring the amount of information that an observable random variable X carries about an unknown parameter θ of a distribution that models X. Formally, it is the variance of the score, or the expected value of the observed information. The Fisher information matrix is used to calculate the covariance matrices associated with maximum-likelihood estimates. It can also be used in the formulation of test statistics, such as the Wald test. (en) In statistica e teoria dell'informazione, l'informazione di Fisher è la varianza dello score (derivata logaritmica) associato a una data funzione di verosimiglianza. L'informazione di Fisher, che prende il nome dal celebre genetista e statistico Ronald Fisher, può essere interpretata come l'ammontare di informazione contenuta da una variabile casuale osservabile , concernente un parametro non osservabile , da cui dipende la distribuzione di probabilità di . dove denota la funzione di verosimiglianza. Una scrittura equivalente è: (it) Informacja Fishera – miara ilości informacji o jednym lub wielu nieznanych parametrach jaką niesie obserwowalna związana z nimi zmienna losowa . Może być rozumiana jako średnia dokładność oszacowania, jaką daje obserwacja danych – tj. wartość oczekiwana brzegowej wiarygodności estymatora parametru względem obserwacji danych W przypadku jednego parametru i zmiennej ciągłej, oraz przy założeniu określonego statystycznego modelu ich wzajemnej zależności wyraża ją równanie: (pl)
rdfs:label Fisher-Information (de) Fisher information (en) Information de Fisher (fr) Informazione di Fisher (it) 피셔 정보 (ko) フィッシャー情報量 (ja) Fisherinformatie (nl) Informacja Fishera (pl) Информация Фишера (ru) Інформація за Фішером (uk) 费希尔信息 (zh)
rdfs:seeAlso dbr:Fisher_information_metric dbr:Regular_parametric_model
owl:sameAs freebase:Fisher information http://d-nb.info/gnd/7576378-3 wikidata:Fisher information http://bn.dbpedia.org/resource/ফিশার_তথ্য dbpedia-de:Fisher information dbpedia-fa:Fisher information dbpedia-fi:Fisher information dbpedia-fr:Fisher information dbpedia-he:Fisher information dbpedia-it:Fisher information dbpedia-ja:Fisher information dbpedia-ko:Fisher information dbpedia-nl:Fisher information dbpedia-pl:Fisher information dbpedia-ru:Fisher information http://su.dbpedia.org/resource/Informasi_Fisher dbpedia-uk:Fisher information dbpedia-zh:Fisher information https://global.dbpedia.org/id/RuPR
prov:wasDerivedFrom wikipedia-en:Fisher_information?oldid=1121357221&ns=0
foaf:isPrimaryTopicOf wikipedia-en:Fisher_information
is dbo:knownFor of dbr:Ronald_Fisher
is dbo:wikiPageDisambiguates of dbr:Information_(disambiguation)
is dbo:wikiPageRedirects of dbr:Extreme_physical_information dbr:Fisher_information_matrix dbr:Fisher's_information dbr:Fisher_Information dbr:Fisher_amount_of_information dbr:Fisher_matrix dbr:Fisherian_criterion dbr:Singular_statistical_model dbr:Information_(statistics) dbr:Information_matrix dbr:Information_number
is dbo:wikiPageWikiLink of dbr:Bayes_estimator dbr:Bayesian_information_criterion dbr:Bayesian_operational_modal_analysis dbr:Ronald_Fisher dbr:Extreme_physical_information dbr:Variance_function dbr:Principle_of_transformation_groups dbr:Bradley_Efron dbr:David_Hinkley dbr:Beta_distribution dbr:Index_of_information_theory_articles dbr:List_of_important_publications_in_statistics dbr:Information_(disambiguation) dbr:Ancillary_statistic dbr:Maximum_likelihood_estimation dbr:Chentsov's_theorem dbr:Estimation_theory dbr:Generalized_estimating_equation dbr:Generalized_linear_model dbr:Statistical_manifold dbr:Quantum_Fisher_information dbr:Entropy_(information_theory) dbr:Monte_Carlo_method dbr:Multivariate_normal_distribution dbr:Optimal_design dbr:Berndt–Hall–Hall–Hausman_algorithm dbr:Likelihood_function dbr:Statistics dbr:Kullback's_inequality dbr:Partition_function_(mathematics) dbr:Backpropagation dbr:CLs_method_(particle_physics) dbr:G-prior dbr:Least_squares dbr:Exponential_distribution dbr:Fisher_information_matrix dbr:Formation_matrix dbr:Founders_of_statistics dbr:History_of_statistics dbr:Item_response_theory dbr:Kalman_filter dbr:Timeline_of_probability_and_statistics dbr:Cramér–Rao_bound dbr:Hájek–Le_Cam_convolution_theorem dbr:Jeffreys_prior dbr:Efficiency_(statistics) dbr:Regime_shift dbr:B._Roy_Frieden dbr:Bures_metric dbr:CMA-ES dbr:Information_theory dbr:Minimum_mean_square_error dbr:Minimum_message_length dbr:Chapman–Robbins_bound dbr:Minimum_Fisher_information dbr:Score_(statistics) dbr:Score_test dbr:Vector_generalized_linear_model dbr:Wald_test dbr:List_of_statistics_articles dbr:Observed_information dbr:Quantum_potential dbr:Statistic dbr:Fisher_information_metric dbr:Fisher_kernel dbr:Natural_evolution_strategy dbr:Scoring_algorithm dbr:Outline_of_statistics dbr:Single-molecule_FRET dbr:Fisher's_information dbr:Fisher_Information dbr:Fisher_amount_of_information dbr:Fisher_matrix dbr:Fisherian_criterion dbr:Singular_statistical_model dbr:Information_(statistics) dbr:Information_matrix dbr:Information_number
is dbp:knownFor of dbr:Ronald_Fisher
is foaf:primaryTopic of wikipedia-en:Fisher_information