Likelihood principle (original) (raw)
In statistics, the likelihood principle is the proposition that, given a statistical model, all the evidence in a sample relevant to model parameters is contained in the likelihood function. A likelihood function arises from a probability density function considered as a function of its distributional parameterization argument. For example, consider a model which gives the probability density function of observable random variable as a function of a parameter Then for a specific value of the function is a likelihood function of it gives a measure of how "likely" any particular value of is, if we know that has the value The density function may be a density with respect to counting measure, i.e. a probability mass function.
Property | Value | ||
---|---|---|---|
dbo:abstract | In statistics, the likelihood principle is the proposition that, given a statistical model, all the evidence in a sample relevant to model parameters is contained in the likelihood function. A likelihood function arises from a probability density function considered as a function of its distributional parameterization argument. For example, consider a model which gives the probability density function of observable random variable as a function of a parameter Then for a specific value of the function is a likelihood function of it gives a measure of how "likely" any particular value of is, if we know that has the value The density function may be a density with respect to counting measure, i.e. a probability mass function. Two likelihood functions are equivalent if one is a scalar multiple of the other.The likelihood principle is this: All information from the data that is relevant to inferences about the value of the model parameters is in the equivalence class to which the likelihood function belongs. The strong likelihood principle applies this same criterion to cases such as sequential experiments where the sample of data that is available results from applying a stopping rule to the observations earlier in the experiment. (en) У статистиці при́нцип правдоподі́бності (англ. likelihood principle) полягає в тім, що для заданої статистичної моделі все свідчення у вибірці, що має відношення до параметрів моделі, міститься у функції правдоподібності. Функція правдоподібності виникає з функції густини ймовірності, яку розглядають як функцію від її аргументу розподілового параметризування. Наприклад, розгляньмо модель, яка дає функцію густини ймовірності ƒX(x | θ) спостережуваної випадкової змінної X як функцію від параметра θ. Тоді для конкретного значення x змінної X функція (θ | x) = ƒX(x | θ) є функцією правдоподібності θ: вона дає міру того, наскільки «правдоподібним» є певне значення θ, якщо ми знаємо, що X має значення x. Функція густини може бути густиною по відношенню до зліченної міри, тобто, функцією маси ймовірності. Дві функції правдоподібності є еквівале́нтними (англ. equivalent), якщо одна з них є добутком іншої на скаляр. При́нцип правдоподі́бності (англ. likelihood principle) полягає в наступному: вся інформація з даних, доречна для висновувань про значення параметрів моделі, міститься в класі еквівалентності, до якого належить функція правдоподібності. Си́льний при́нцип правдоподі́бності (англ. strong likelihood principle) застосовує той самий критерій до таких випадків, як послідовні експерименти, де вибірка даних є результатами, доступними від ранішого застосування до спостережень в експерименті правила зупину. (uk) |
dbo:wikiPageExternalLink | https://archive.org/details/statisticalevide0000roya http://www.cimat.mx/reportes/enlinea/D-99-10.html http://projecteuclid.org/euclid.lnms/1215466210 http://jeff560.tripod.com/l.html http://www.phil.vt.edu/dmayo/personal_website/ch%207%20mayo%20birnbaum%20proof.pdf https://archive.org/details/likelihoodaccoun0000edwa http://www.economics.soton.ac.uk/staff/aldrich/fisherguide/prob+lik.htm http://digital.library.adelaide.edu.au/dspace/handle/2440/15172 | ||
dbo:wikiPageID | 17905 (xsd:integer) | ||
dbo:wikiPageInterLanguageLink | dbpedia-ru:Принцип_максимального_правдоподобия | ||
dbo:wikiPageLength | 21241 (xsd:nonNegativeInteger) | ||
dbo:wikiPageRevisionID | 1084319664 (xsd:integer) | ||
dbo:wikiPageWikiLink | dbr:Bayes_factor dbr:Bayesian_statistics dbr:Projective_space dbc:Likelihood dbr:Allan_Birnbaum dbr:Pearson's_chi-squared_test dbr:Deborah_Mayo dbr:Design_of_experiments dbr:Likelihood_ratio dbr:Likelihoodist_statistics dbr:Null_hypothesis dbc:Statistical_principles dbr:Neyman–Pearson_lemma dbr:Conditionality_principle dbr:Bernoulli_trial dbr:Likelihood-ratio_test dbr:Likelihood_function dbr:Statistical_model dbr:Statistics dbr:P-value dbc:Estimation_theory dbr:A._W._F._Edwards dbr:Censoring_(statistics) dbr:Probability_density_function dbr:Random_variable dbr:Statistical_power dbr:Philosophical_Transactions_of_the_Royal_Society_A dbr:Frequentist_inference dbr:Ian_Hacking dbr:Maximum_likelihood dbr:Probability_mass_function dbr:Sampling_(statistics) dbr:Statistical_hypothesis_testing dbr:Fisher's_exact_test dbr:Philosophy_of_science dbr:Bayes'_rule dbr:Simple_hypothesis dbr:Sufficient_statistic dbr:Frequentist dbr:Statistical_independence dbr:P-values dbr:Optional_stopping dbr:Significance_level dbr:Stopping_rule dbr:Ronald_A._Fisher dbr:Sufficiency_principle | ||
dbp:wikiPageUsesTemplate | dbt:= dbt:Cite_book dbt:Cite_journal dbt:Efn dbt:Math dbt:Mvar dbt:Notelist dbt:Refbegin dbt:Refend dbt:Reflist dbt:Sfrac dbt:Sub | ||
dct:subject | dbc:Likelihood dbc:Statistical_principles dbc:Estimation_theory | ||
rdf:type | yago:WikicatStatisticalPrinciples yago:Abstraction100002137 yago:Cognition100023271 yago:Content105809192 yago:Generalization105913275 yago:Idea105833840 yago:Principle105913538 yago:PsychologicalFeature100023100 | ||
rdfs:comment | In statistics, the likelihood principle is the proposition that, given a statistical model, all the evidence in a sample relevant to model parameters is contained in the likelihood function. A likelihood function arises from a probability density function considered as a function of its distributional parameterization argument. For example, consider a model which gives the probability density function of observable random variable as a function of a parameter Then for a specific value of the function is a likelihood function of it gives a measure of how "likely" any particular value of is, if we know that has the value The density function may be a density with respect to counting measure, i.e. a probability mass function. (en) У статистиці при́нцип правдоподі́бності (англ. likelihood principle) полягає в тім, що для заданої статистичної моделі все свідчення у вибірці, що має відношення до параметрів моделі, міститься у функції правдоподібності. (uk) | ||
rdfs:label | Likelihood principle (en) Принцип правдоподібності (uk) | ||
owl:sameAs | freebase:Likelihood principle yago-res:Likelihood principle wikidata:Likelihood principle http://su.dbpedia.org/resource/Prinsip_likelihood dbpedia-uk:Likelihood principle https://global.dbpedia.org/id/LAMZ | ||
prov:wasDerivedFrom | wikipedia-en:Likelihood_principle?oldid=1084319664&ns=0 | ||
foaf:isPrimaryTopicOf | wikipedia-en:Likelihood_principle | ||
is dbo:wikiPageRedirects of | dbr:Law_of_likelihood dbr:Likelihood_Principle | ||
is dbo:wikiPageWikiLink of | dbr:Ronald_Fisher dbr:Debabrata_Basu dbr:Allan_Birnbaum dbr:De-identification dbr:Deaths_in_August_2002 dbr:Likelihoodist_statistics dbr:George_Alfred_Barnard dbr:Conditionality_principle dbr:Control_chart dbr:Likelihood_function dbr:Machine_perception dbr:P-value dbr:CLs_method_(particle_physics) dbr:Data_reduction dbr:Law_of_likelihood dbr:A._W._F._Edwards dbr:Foundations_of_statistics dbr:Jeffreys_prior dbr:Frequentist_inference dbr:List_of_statistics_articles dbr:Likelihood_Principle | ||
is foaf:primaryTopic of | wikipedia-en:Likelihood_principle |