Markov chain Monte Carlo (original) (raw)

About DBpedia

في علم الإحصاء، سلسلة ماركوف مونتي كارلو (MCMC) هي نوع من الخوارزميات المستخدمة لمحاكاة توزيع احتمالي مجهول ويتم ذلك ببناء سلسلة ماركوف التي يكون توزيعها المتوازن مطابق للتوزيع الاحتمالي المجهول المراد محاكاته. حالة السلسلة بعد عدد من الخطوات يستخدم كعينات من التوزيع الاحتمالي المراد إيجاده ودقة هذه العينات تتحسن بزيادة عدد الخطوات للسلسلة. طرق السير العشوائي لمنتو كارلو تمثل جزء كبير من طرق سلسلة ماركوف منتوكارلو

thumbnail

Property Value
dbo:abstract في علم الإحصاء، سلسلة ماركوف مونتي كارلو (MCMC) هي نوع من الخوارزميات المستخدمة لمحاكاة توزيع احتمالي مجهول ويتم ذلك ببناء سلسلة ماركوف التي يكون توزيعها المتوازن مطابق للتوزيع الاحتمالي المجهول المراد محاكاته. حالة السلسلة بعد عدد من الخطوات يستخدم كعينات من التوزيع الاحتمالي المراد إيجاده ودقة هذه العينات تتحسن بزيادة عدد الخطوات للسلسلة. طرق السير العشوائي لمنتو كارلو تمثل جزء كبير من طرق سلسلة ماركوف منتوكارلو (ar) Markov chain Monte Carlo (MCMC, česky asi Monte Carlo pomocí Markovova řetězce) je ve statistice třída algoritmů pro vzorkování z pravděpodobnostního rozdělení založená na konstrukci Markovova řetězce, který má požadované rozdělení jako svou rovnovážnou distribuci. Stav řetězce po několika krocích se pak použije jako vzorek z požadované distribuce. Kvalita vzorku se zvyšuje se zvýšením počtu kroků. Konvergence algoritmu Metropolis-Hastings. MCMC se pokusí přiblížit k modré distribuci prostřednictvím oranžové distribuce Metody Monte Carlo pomocí náhodné procházky tvoří velkou podtřídu MCMC metod. (cs) Οι μέθοδοι Μόντε Κάρλο είναι μεγάλη κατηγορία υπολογιστικών αλγορίθμων που στηρίζονται σε τυχαία δειγματοληψία με σκοπό την εξαγωγή αριθμητικών αποτελεσμάτων. (el) Markow-Chain-Monte-Carlo-Verfahren (kurz MCMC-Verfahren; seltener auch Markow-Ketten-Monte-Carlo-Verfahren) sind eine Klasse von Algorithmen, die zufällige Stichproben aus Wahrscheinlichkeitsverteilungen (Monte-Carlo-Verfahren) ziehen. Dies geschieht auf der Basis der Konstruktion einer Markow-Kette, welche die erwünschte Verteilung als ihre stationäre Verteilung aufweist. Der Zustand der Kette nach einer großen Zahl von Schritten wird dann als Stichprobe der erwünschten Verteilung benutzt. Die Qualität der Stichprobe steigt mit zunehmender Zahl der Schritte. Üblicherweise gelingt es leicht, eine Markow-Kette mit den erwünschten Eigenschaften zu konstruieren. Das Schwierigere ist, zu ermitteln, wie viele Schritte nötig sind, um Konvergenz zur stationären Verteilung mit akzeptablem Fehler zu erreichen. Also den Algorithmus so zu gestalten, dass möglichst effektiv unabhängige Systemzustände generiert werden. Eine gute Kette mit einer gut gewählten Anfangsverteilung wird schnell konvergieren, d. h. die stationäre Verteilung wird schnell erreicht. Bei typischer Anwendung von MCMC-Verfahren kann die Zielverteilung nur näherungsweise erreicht werden, da es immer einen gewissen Resteffekt der Anfangsverteilung gibt.Stichproben, welche mit MCMC-Algorithmen generiert werden, weisen typischerweise hohe Autokorrelationen auf. Daher wird der Fehler des Mittelwerteschätzers bei Verwendung des Standardfehlers unterschätzt. (de) En estadística, los métodos de Montecarlo basados en cadenas de Markov (MCMC por sus siglas en inglés, Markov chain Montecarlo) comprenden una clase de algoritmos para el muestreo de una distribución de probabilidad. Construyendo una cadena de Markov que tiene la distribución deseada como su distribución de equilibrio, se puede obtener una muestra de la distribución deseada registrando estados de la cadena. Cuantos más pasos se incluyan, más se acercará la distribución de la muestra a la distribución real deseada. Existen varios algoritmos para construir cadenas, incluido el algoritmo de Metrópolis-Hastings. (es) Les méthodes de Monte-Carlo par chaînes de Markov, ou méthodes MCMC pour Markov chain Monte Carlo en anglais, sont une classe de méthodes d'échantillonnage à partir de distributions de probabilité. Ces méthodes de Monte-Carlo se basent sur le parcours de chaînes de Markov qui ont pour lois stationnaires les distributions à échantillonner. Certaines méthodes utilisent des marches aléatoires sur les chaînes de Markov (algorithme de Metropolis-Hastings, échantillonnage de Gibbs), alors que d'autres algorithmes, plus complexes, introduisent des contraintes sur les parcours pour essayer d'accélérer la convergence (Monte Carlo Hybride, Surrelaxation successive). Ces méthodes sont notamment appliquées dans le cadre de l'inférence bayésienne. (fr) In statistics, Markov chain Monte Carlo (MCMC) methods comprise a class of algorithms for sampling from a probability distribution. By constructing a Markov chain that has the desired distribution as its equilibrium distribution, one can obtain a sample of the desired distribution by recording states from the chain. The more steps that are included, the more closely the distribution of the sample matches the actual desired distribution. Various algorithms exist for constructing chains, including the Metropolis–Hastings algorithm. (en) マルコフ連鎖モンテカルロ法(マルコフれんさモンテカルロほう、英: Markov chain Monte Carlo methods、通称MCMC)とは、求める確率分布を均衡分布として持つマルコフ連鎖を作成することによって確率分布のサンプリングを行う種々のアルゴリズムの総称である。具体的には、同時事後分布に従う乱数を継時的に生成する。代表的なMCMCとしてメトロポリス・ヘイスティングス法やギブスサンプリングがある。 MCMCで充分に多くの回数の試行を行った後のマルコフ連鎖の状態は求める目標分布の標本として用いられる。試行の回数を増やすとともにサンプルの品質も向上する。 求められる特性を持つマルコフ連鎖を作成することは通常難しくない。問題は許容できる誤差内で定常分布に収束する試行の回数を決めることである。適切な連鎖なら任意の位置から始めても定常分布に速く達し、これを高速混合(rapid mixing)とよぶ。 典型的なMCMCは常にある程度の初期値の影響が残るため目標分布しか近似することができない。(coupling from the past)などの、より洗練されたMCMCベースのアルゴリズムは完全標本を作成することができるが、より多くの計算と(期待値では有限だが)限界のない実行時間を要する。 このアルゴリズムの最も一般的な応用は多重積分を数値的に計算することである。ランダムに歩き回る粒子の集団を想定し、粒子が点を通過するたびに、その点の被積分関数の値を積分に加算する。粒子は次に積分への貢献が高い所を探して複数の仮の動作をする。このような方法はランダムウォーク法とよばれ、これは乱数的なシミュレーションつまりモンテカルロ法の一種である。従来のモンテカルロ法で用いられる被積分関数のランダムな標本が独立であるのに対して、MCMCで用いられる標本は相関がある。被積分関数を均衡分布に持つようなマルコフ連鎖を作成する必要があるが、多くの場合において容易に行うことができる。 多重積分はベイズ統計学、計算物理学、計算生物学などにしばしば現れるため、そのような分野でMCMCが広く使われている。例としては や を参照。 生成された乱数列はトレースプロット(英: trace plots)の形で可視化できる。 (ja) I metodi Monte Carlo basati su Catena di Markov (MCMC) sono una classe di algoritmi per il campionamento da distribuzioni di probabilità basata sulla costruzione di una catena di Markov avente come distribuzione di equilibrio (o stazionaria) la distribuzione desiderata. Dopo aver simulato un grande numero di passi della catena si può quindi usare i valori estratti come campione della distribuzione desiderata. Solitamente non è difficile costruire una catena di Markov con le proprietà desiderate, ma non è sempre possibile determinare a priori quanti passi sono necessari per convergere con un errore accettabile alla distribuzione stazionaria. Una MCMC è tanto migliore quanto minore è il suo tempo di mixing, ossia di convergenza alla distribuzione stazionaria, partendo da una posizione arbitraria. (it) 마르코프 연쇄 몬테카를로 방법(무작위 행보 몬테 카를로 방법 포함)은 마르코프 연쇄의 구성에 기반한 확률 분포로부터 원하는 분포의 를 갖는 표본을 추출하는 알고리즘의 한 부류이다.큰 수의 단계(step) 이후에 연쇄의 상태는 목표로 하는 분포로부터 추출된 표본처럼 사용될 수 있다.표본의 품질은 단계 수의 함수로 개선된다.일반적으로 원하는 특성을 갖는 마르코프 연쇄를 구성하는 것은 어렵지 않다.보다 어려운 문제는 수용할 만한 오차 범위의 정적 분포로 수렴하는데까지 얼마나 많은 단계가 필요한지를 결정하는 것이다.좋은 연쇄는 임의의 위치에서부터 시작하여 정적 분포에 빠르게 도달하는 빠른 혼합(mixing)을 가질 것이며, 이에 대해서는 에서 상세히 설명된다. MCMC의 전형적인 사용은 목표 분포를 근사하는 것이며, 여기에는 항상 시작 위치로부터의 약간의 잔여 효과(residual effect)가 존재한다. 이 알고리즘의 가장 일반적인 적용 예는 다차원 적분을 수치적으로 계산하는 것이다. (ko) Próbkowanie Monte Carlo łańcuchami Markowa (ang. Markov Chain Monte Carlo, MCMC) – klasa algorytmów próbkowania z rozkładu prawdopodobieństwa. Poprzez budowę łańcucha Markowa, który ma rozkład równowagowy taki jak szukana dystrybucja, można wydajnie próbkować złożone rozkłady prawdopodobieństwa. Im większa liczba kroków w takim algorytmie, tym dokładniej rozkład próbki odpowiada pożądanemu rozkładowi. Błądzenie losowe Monte Carlo jest istotną dużą podklasą takich procesów próbkowania. (pl) У статистиці, ме́тоди Мо́нте-Ка́рло ма́рковських ланцюгі́в (МКМЛ, англ. Markov Chain Monte Carlo, MCMC) — це клас алгоритмів для вибірки з розподілу ймовірностей на базі побудови такого ланцюга Маркова, що має бажаний розподіл як свій рівноважний розподіл. Тоді стан цього ланцюга після якогось числа кроків використовується як вибірка з бажаного розподілу. Якість вибірки покращується як функція від кількості кроків. Ме́тоди Мо́нте-Ка́рло випадко́вого блука́ння складають великий підклас методів МКМЛ. (uk) В статистике методы Монте-Карло с марковскими цепями (англ. MCMC) — это класс алгоритмов для семплирования, моделирующих некоторое распределение вероятностей. Построив марковскую цепь, которая имеет целевое распределение в качестве своего равновесного, можно получить выборку с тем же распределением путем записи состояний цепи. Чем больше шагов будет использовано, тем ближе распределение выборки будет к целевому. Для построения цепей используются различные алгоритмы, например, алгоритм Метрополиса-Гастингса. (ru) 马尔可夫链蒙特卡洛(英語:Markov chain Monte Carlo,MCMC)方法(含随机游走蒙特卡洛方法)是一组用马氏链从随机分布取样的算法,之前步骤的作为底本。步数越多,结果越好。 建立一个具有期望属性的马氏链并非难事,难的是如何决定通过多少步可以达到在许可误差内的稳定分布。一个好的马氏链具有快速混合——从开始阶段迅速获得的一个稳定状态——请参考。 因于初始样本,最常见的MCMC取样只能近似得到分布。复杂的MCMC改进算法如,但是会消耗更多的计算资源和时间。 典型用法是模拟一个随机行走的行人来进行路径优化等。每一步都算作是一个状态。而统计经过次数最多的地方将在下一步中更有可能为目的地。马氏蒙特卡洛方法是一种结合了蒙特卡罗法的解决方案。但不同于以往的蒙特卡洛integration是统计独立的,MCMC中的是统计相关的。 本方法的相关应用包括:贝叶斯统计、计算物理、以及计算语言学,此外还有Gill先生的一些著作。 Jeff Gill. Bayesian methods: a social and behavioral sciences approach Second Edition. London: Chapman and Hall/CRC. 2008 [2012-02-07]. ISBN 1-58488-562-9. (原始内容存档于2009-05-23). and Robert & Casella. (zh)
dbo:thumbnail wiki-commons:Special:FilePath/Metropolis_algorithm_convergence_example.png?width=300
dbo:wikiPageExternalLink https://archive.org/details/springer_10.1007-978-1-4757-4145-2 http://stat.wharton.upenn.edu/~stjensen/stat542/lecture14.mcmchistory.pdf https://emcee.readthedocs.io/en/stable/ https://www.cdslab.org/paramonte/notes/installation/python/ https://www.cse-lab.ethz.ch/korali/ https://www.multibugs.org/ https://www.ams.org/bull/2009-46-02/S0273-0979-08-01238-X/S0273-0979-08-01238-X.pdf http://www.cs.princeton.edu/courses/archive/spr06/cos598C/papers/AndrieuFreitasDoucetJordan2003.pdf http://web.math.ucsb.edu/~atzberg/pmwiki_intranet/uploads/AtzbergerHomePage/Atzberger_MonteCarlo.pdf https://github.com/cdslaborg/paramonte https://github.com/dkundih/vandal http://www.cs.utoronto.ca/~radford/review.abstract.html http://apps.nrbook.com/empanel/index.html%23pg=824 https://www.tensorflow.org/probability/
dbo:wikiPageID 236801 (xsd:integer)
dbo:wikiPageLength 27024 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1108818004 (xsd:integer)
dbo:wikiPageWikiLink dbr:Cambridge_University_Press dbr:Bayesian_inference dbr:Bayesian_inference_using_Gibbs_sampling dbr:Bayesian_statistics dbr:Probability_distribution dbr:Pseudo-random_number_sampling dbr:PyMC3 dbr:Python_(programming_language) dbr:Metropolis–Hastings_algorithm dbr:Monte_Carlo_integration dbr:Particle_filter dbr:Nonparametric dbr:Bayesian_network dbr:Algorithm dbr:Annals_of_Statistics dbc:Computational_statistics dbc:Monte_Carlo_methods dbr:Curse_of_dimensionality dbr:Bull._Amer._Math._Soc. dbr:Variance dbr:Integrated_nested_Laplace_approximations dbr:John_Wiley_&_Sons dbr:Mean-field_particle_methods dbr:Low-discrepancy_sequence dbr:Genetic_algorithm dbr:Grand_canonical_ensemble dbr:Momentum dbr:Monte_Carlo_method dbr:Multiple_integral dbc:Markov_chain_Monte_Carlo dbr:MATLAB dbr:MCSim dbr:Chinese_restaurant_process dbr:Signal_processing dbr:Simulated_annealing dbr:Stan_(software) dbr:Statistics dbr:Stochastic_processes dbr:Computational_biology dbr:Computational_linguistics dbr:Computational_physics dbr:Computer_simulation dbr:Hamiltonian_Monte_Carlo dbr:Markov_chain_central_limit_theorem dbr:Autocorrelation dbr:C++ dbr:C_(programming_language) dbr:WinBUGS dbr:Expected_value dbr:Fortran dbr:Numerical_analysis dbr:Dirichlet_process dbr:Journal_of_the_American_Statistical_Association dbr:Quasi-Monte_Carlo_method dbr:Random_variable dbr:Coupling_from_the_past dbr:TensorFlow dbc:Markov_models dbr:Just_another_Gibbs_sampler dbr:Latent_variable_model dbr:Biometrika dbr:The_American_Mathematical_Monthly dbc:Bayesian_estimation dbr:Markov_chain_mixing_time dbr:Markov_chains dbr:OpenBUGS dbr:R_(programming_language) dbr:World_Scientific dbr:Markov_chain dbr:Metropolis-adjusted_Langevin_algorithm dbr:Slice_sampling dbr:IEEE_Transactions_on_Pattern_Analysis_and_Machine_Intelligence dbr:The_American_Statistician dbr:Gibbs_sampling dbr:Probabilistic_programming_language dbr:Multiple-try_Metropolis dbr:Statistical_physics dbr:Wang_and_Landau_algorithm dbr:Rare_event_sampling dbr:Hamiltonian_dynamics dbr:Chapman_and_Hall dbr:IEEE_Control_Systems_Magazine dbr:Running_time dbr:Statistical_ensemble dbr:Statistically_independent dbr:Operations_Research:_A_Journal_of_the_..._Research_and_the_Management_Sciences dbr:Reversible-jump dbr:Conditional_distribution dbr:Probability_density dbr:Koksma-Hlawka_inequality dbr:File:Metropolis_algorithm_convergence_example.png dbr:Pseudo-Marginal_Metropolis–Hastings_algorithm
dbp:wikiPageUsesTemplate dbt:Citation dbt:Citation_needed dbt:Cite_book dbt:Cite_journal dbt:Cite_web dbt:Refbegin dbt:Refend dbt:Reflist dbt:Short_description dbt:Bayesian_statistics
dcterms:subject dbc:Computational_statistics dbc:Monte_Carlo_methods dbc:Markov_chain_Monte_Carlo dbc:Markov_models dbc:Bayesian_estimation
gold:hypernym dbr:Algorithms
rdf:type yago:WikicatMonteCarloMethods yago:Ability105616246 yago:Abstraction100002137 yago:Act100030358 yago:Activity100407535 yago:Algorithm105847438 yago:Cognition100023271 yago:Event100029378 yago:Know-how105616786 yago:Method105660268 yago:Procedure101023820 yago:PsychologicalFeature100023100 yago:YagoPermanentlyLocatedEntity yago:Rule105846932 yago:WikicatAlgorithms
rdfs:comment في علم الإحصاء، سلسلة ماركوف مونتي كارلو (MCMC) هي نوع من الخوارزميات المستخدمة لمحاكاة توزيع احتمالي مجهول ويتم ذلك ببناء سلسلة ماركوف التي يكون توزيعها المتوازن مطابق للتوزيع الاحتمالي المجهول المراد محاكاته. حالة السلسلة بعد عدد من الخطوات يستخدم كعينات من التوزيع الاحتمالي المراد إيجاده ودقة هذه العينات تتحسن بزيادة عدد الخطوات للسلسلة. طرق السير العشوائي لمنتو كارلو تمثل جزء كبير من طرق سلسلة ماركوف منتوكارلو (ar) Οι μέθοδοι Μόντε Κάρλο είναι μεγάλη κατηγορία υπολογιστικών αλγορίθμων που στηρίζονται σε τυχαία δειγματοληψία με σκοπό την εξαγωγή αριθμητικών αποτελεσμάτων. (el) En estadística, los métodos de Montecarlo basados en cadenas de Markov (MCMC por sus siglas en inglés, Markov chain Montecarlo) comprenden una clase de algoritmos para el muestreo de una distribución de probabilidad. Construyendo una cadena de Markov que tiene la distribución deseada como su distribución de equilibrio, se puede obtener una muestra de la distribución deseada registrando estados de la cadena. Cuantos más pasos se incluyan, más se acercará la distribución de la muestra a la distribución real deseada. Existen varios algoritmos para construir cadenas, incluido el algoritmo de Metrópolis-Hastings. (es) In statistics, Markov chain Monte Carlo (MCMC) methods comprise a class of algorithms for sampling from a probability distribution. By constructing a Markov chain that has the desired distribution as its equilibrium distribution, one can obtain a sample of the desired distribution by recording states from the chain. The more steps that are included, the more closely the distribution of the sample matches the actual desired distribution. Various algorithms exist for constructing chains, including the Metropolis–Hastings algorithm. (en) 마르코프 연쇄 몬테카를로 방법(무작위 행보 몬테 카를로 방법 포함)은 마르코프 연쇄의 구성에 기반한 확률 분포로부터 원하는 분포의 를 갖는 표본을 추출하는 알고리즘의 한 부류이다.큰 수의 단계(step) 이후에 연쇄의 상태는 목표로 하는 분포로부터 추출된 표본처럼 사용될 수 있다.표본의 품질은 단계 수의 함수로 개선된다.일반적으로 원하는 특성을 갖는 마르코프 연쇄를 구성하는 것은 어렵지 않다.보다 어려운 문제는 수용할 만한 오차 범위의 정적 분포로 수렴하는데까지 얼마나 많은 단계가 필요한지를 결정하는 것이다.좋은 연쇄는 임의의 위치에서부터 시작하여 정적 분포에 빠르게 도달하는 빠른 혼합(mixing)을 가질 것이며, 이에 대해서는 에서 상세히 설명된다. MCMC의 전형적인 사용은 목표 분포를 근사하는 것이며, 여기에는 항상 시작 위치로부터의 약간의 잔여 효과(residual effect)가 존재한다. 이 알고리즘의 가장 일반적인 적용 예는 다차원 적분을 수치적으로 계산하는 것이다. (ko) Próbkowanie Monte Carlo łańcuchami Markowa (ang. Markov Chain Monte Carlo, MCMC) – klasa algorytmów próbkowania z rozkładu prawdopodobieństwa. Poprzez budowę łańcucha Markowa, który ma rozkład równowagowy taki jak szukana dystrybucja, można wydajnie próbkować złożone rozkłady prawdopodobieństwa. Im większa liczba kroków w takim algorytmie, tym dokładniej rozkład próbki odpowiada pożądanemu rozkładowi. Błądzenie losowe Monte Carlo jest istotną dużą podklasą takich procesów próbkowania. (pl) У статистиці, ме́тоди Мо́нте-Ка́рло ма́рковських ланцюгі́в (МКМЛ, англ. Markov Chain Monte Carlo, MCMC) — це клас алгоритмів для вибірки з розподілу ймовірностей на базі побудови такого ланцюга Маркова, що має бажаний розподіл як свій рівноважний розподіл. Тоді стан цього ланцюга після якогось числа кроків використовується як вибірка з бажаного розподілу. Якість вибірки покращується як функція від кількості кроків. Ме́тоди Мо́нте-Ка́рло випадко́вого блука́ння складають великий підклас методів МКМЛ. (uk) В статистике методы Монте-Карло с марковскими цепями (англ. MCMC) — это класс алгоритмов для семплирования, моделирующих некоторое распределение вероятностей. Построив марковскую цепь, которая имеет целевое распределение в качестве своего равновесного, можно получить выборку с тем же распределением путем записи состояний цепи. Чем больше шагов будет использовано, тем ближе распределение выборки будет к целевому. Для построения цепей используются различные алгоритмы, например, алгоритм Метрополиса-Гастингса. (ru) Markov chain Monte Carlo (MCMC, česky asi Monte Carlo pomocí Markovova řetězce) je ve statistice třída algoritmů pro vzorkování z pravděpodobnostního rozdělení založená na konstrukci Markovova řetězce, který má požadované rozdělení jako svou rovnovážnou distribuci. Stav řetězce po několika krocích se pak použije jako vzorek z požadované distribuce. Kvalita vzorku se zvyšuje se zvýšením počtu kroků. Konvergence algoritmu Metropolis-Hastings. MCMC se pokusí přiblížit k modré distribuci prostřednictvím oranžové distribuce (cs) Markow-Chain-Monte-Carlo-Verfahren (kurz MCMC-Verfahren; seltener auch Markow-Ketten-Monte-Carlo-Verfahren) sind eine Klasse von Algorithmen, die zufällige Stichproben aus Wahrscheinlichkeitsverteilungen (Monte-Carlo-Verfahren) ziehen. Dies geschieht auf der Basis der Konstruktion einer Markow-Kette, welche die erwünschte Verteilung als ihre stationäre Verteilung aufweist. Der Zustand der Kette nach einer großen Zahl von Schritten wird dann als Stichprobe der erwünschten Verteilung benutzt. Die Qualität der Stichprobe steigt mit zunehmender Zahl der Schritte. (de) Les méthodes de Monte-Carlo par chaînes de Markov, ou méthodes MCMC pour Markov chain Monte Carlo en anglais, sont une classe de méthodes d'échantillonnage à partir de distributions de probabilité. Ces méthodes de Monte-Carlo se basent sur le parcours de chaînes de Markov qui ont pour lois stationnaires les distributions à échantillonner. Ces méthodes sont notamment appliquées dans le cadre de l'inférence bayésienne. (fr) I metodi Monte Carlo basati su Catena di Markov (MCMC) sono una classe di algoritmi per il campionamento da distribuzioni di probabilità basata sulla costruzione di una catena di Markov avente come distribuzione di equilibrio (o stazionaria) la distribuzione desiderata. Dopo aver simulato un grande numero di passi della catena si può quindi usare i valori estratti come campione della distribuzione desiderata. (it) マルコフ連鎖モンテカルロ法(マルコフれんさモンテカルロほう、英: Markov chain Monte Carlo methods、通称MCMC)とは、求める確率分布を均衡分布として持つマルコフ連鎖を作成することによって確率分布のサンプリングを行う種々のアルゴリズムの総称である。具体的には、同時事後分布に従う乱数を継時的に生成する。代表的なMCMCとしてメトロポリス・ヘイスティングス法やギブスサンプリングがある。 MCMCで充分に多くの回数の試行を行った後のマルコフ連鎖の状態は求める目標分布の標本として用いられる。試行の回数を増やすとともにサンプルの品質も向上する。 求められる特性を持つマルコフ連鎖を作成することは通常難しくない。問題は許容できる誤差内で定常分布に収束する試行の回数を決めることである。適切な連鎖なら任意の位置から始めても定常分布に速く達し、これを高速混合(rapid mixing)とよぶ。 典型的なMCMCは常にある程度の初期値の影響が残るため目標分布しか近似することができない。(coupling from the past)などの、より洗練されたMCMCベースのアルゴリズムは完全標本を作成することができるが、より多くの計算と(期待値では有限だが)限界のない実行時間を要する。 生成された乱数列はトレースプロット(英: trace plots)の形で可視化できる。 (ja) 马尔可夫链蒙特卡洛(英語:Markov chain Monte Carlo,MCMC)方法(含随机游走蒙特卡洛方法)是一组用马氏链从随机分布取样的算法,之前步骤的作为底本。步数越多,结果越好。 建立一个具有期望属性的马氏链并非难事,难的是如何决定通过多少步可以达到在许可误差内的稳定分布。一个好的马氏链具有快速混合——从开始阶段迅速获得的一个稳定状态——请参考。 因于初始样本,最常见的MCMC取样只能近似得到分布。复杂的MCMC改进算法如,但是会消耗更多的计算资源和时间。 典型用法是模拟一个随机行走的行人来进行路径优化等。每一步都算作是一个状态。而统计经过次数最多的地方将在下一步中更有可能为目的地。马氏蒙特卡洛方法是一种结合了蒙特卡罗法的解决方案。但不同于以往的蒙特卡洛integration是统计独立的,MCMC中的是统计相关的。 本方法的相关应用包括:贝叶斯统计、计算物理、以及计算语言学,此外还有Gill先生的一些著作。 (zh)
rdfs:label Markov chain Monte Carlo (en) سلسلة ماركوف مونتي كارلو (ar) Markov chain Monte Carlo (cs) MCMC-Verfahren (de) Μαρκοβιανή Αλυσίδα Μόντε Κάρλο στη Βιολογία (el) Métodos de Montecarlo basados en cadenas de Markov (es) Méthode de Monte-Carlo par chaînes de Markov (fr) Catena di Markov Monte Carlo (it) マルコフ連鎖モンテカルロ法 (ja) 마르코프 연쇄 몬테카를로 (ko) Próbkowanie Monte Carlo łańcuchami Markowa (pl) Марковская цепь Монте-Карло (ru) 马尔可夫链蒙特卡洛 (zh) Методи Монте-Карло марковських ланцюгів (uk)
owl:sameAs freebase:Markov chain Monte Carlo yago-res:Markov chain Monte Carlo wikidata:Markov chain Monte Carlo dbpedia-ar:Markov chain Monte Carlo dbpedia-cs:Markov chain Monte Carlo dbpedia-de:Markov chain Monte Carlo dbpedia-el:Markov chain Monte Carlo dbpedia-es:Markov chain Monte Carlo dbpedia-fa:Markov chain Monte Carlo dbpedia-fr:Markov chain Monte Carlo dbpedia-it:Markov chain Monte Carlo dbpedia-ja:Markov chain Monte Carlo dbpedia-ko:Markov chain Monte Carlo dbpedia-pl:Markov chain Monte Carlo dbpedia-ru:Markov chain Monte Carlo dbpedia-tr:Markov chain Monte Carlo dbpedia-uk:Markov chain Monte Carlo dbpedia-vi:Markov chain Monte Carlo dbpedia-zh:Markov chain Monte Carlo https://global.dbpedia.org/id/F1Ns
prov:wasDerivedFrom wikipedia-en:Markov_chain_Monte_Carlo?oldid=1108818004&ns=0
foaf:depiction wiki-commons:Special:FilePath/Metropolis_algorithm_convergence_example.png
foaf:isPrimaryTopicOf wikipedia-en:Markov_chain_Monte_Carlo
is dbo:academicDiscipline of dbr:Gareth_Roberts_(statistician) dbr:Ziheng_Yang
is dbo:knownFor of dbr:Sylvia_Frühwirth-Schnatter
is dbo:wikiPageDisambiguates of dbr:MCMC
is dbo:wikiPageRedirects of dbr:Markov_Chain_Monte_Carlo dbr:Markov_chain_monte_carlo dbr:MCMC_method dbr:MCMC_methods dbr:Markov_Chain_Monte_Carlo_Simulations dbr:Markov_chain_Monte_Carlo_method dbr:Markov_chain_Monte_Carlo_methods dbr:Markov_clustering dbr:Random_walk_Monte_Carlo dbr:Monte_Carlo_markov_chain
is dbo:wikiPageWikiLink of dbr:Bayes_factor dbr:Bayesian_econometrics dbr:Bayesian_inference dbr:Bayesian_inference_in_marketing dbr:Bayesian_inference_in_phylogeny dbr:Bayesian_inference_using_Gibbs_sampling dbr:Bayesian_model_reduction dbr:Bayesian_probability dbr:Bayesian_statistics dbr:PyMC dbr:Rohan_Fernando_(geneticist) dbr:Energy-based_generative_neural_network dbr:List_of_University_of_Warwick_people dbr:List_of_algorithms dbr:List_of_astronomy_acronyms dbr:List_of_cosmological_computation_software dbr:Metropolis–Hastings_algorithm dbr:Meta-analysis dbr:Particle_filter dbr:Subset_simulation dbr:Bayesian_network dbr:BlackBox_Component_Builder dbr:David_Clayton dbr:David_Spiegelhalter dbr:Detailed_balance dbr:Algorithmic_trading dbr:Antonietta_Mira dbr:Approximate_Bayesian_computation dbr:Approximate_inference dbr:Julian_Besag dbr:Peter_Green_(statistician) dbr:Cure dbr:Vensim dbr:Viviana_Acquaviva dbr:De_novo_protein_structure_prediction dbr:Decision_tree_learning dbr:Deviance_information_criterion dbr:Doppler_spectroscopy dbr:Integrated_nested_Laplace_approximations dbr:List_of_numerical_analysis_topics dbr:List_of_phylogenetics_software dbr:Seismic_inversion dbr:Nuisance_parameter dbr:Preconditioned_Crank–Nicolson_algorithm dbr:Point_estimation dbr:Computing_the_permanent dbr:Construction_of_an_irreducible_Markov_chain_in_the_Ising_model dbr:Ancestral_reconstruction dbr:Math.NET_Numerics dbr:Mean-field_particle_methods dbr:Estimation_theory dbr:Estimator dbr:Generalized_linear_mixed_model dbr:Generalized_linear_model dbr:Low-discrepancy_sequence dbr:Nested_sampling_algorithm dbr:Variable-order_Bayesian_network dbr:Edward_Teller dbr:Energy_based_model dbr:Ensemble_(mathematical_physics) dbr:Gareth_Roberts_(statistician) dbr:George_Casella dbr:Glossary_of_probability_and_statistics dbr:Molecular_clock dbr:Monte_Carlo_method dbr:Multimodal_learning dbr:Continuous-time_quantum_Monte_Carlo dbr:Convex_volume_approximation dbr:Conway–Maxwell–Poisson_distribution dbr:Cosmic_microwave_background dbr:Credible_interval dbr:CrimeStat dbr:Thomas_Bayes dbr:Martin-Quinn_score dbr:MCSim dbr:MLwiN dbr:Stan_(software) dbr:Steve_Brooks_(statistician) dbr:Stuart_Geman dbr:Sudipto_Banerjee dbr:Cluster_analysis dbr:Comparison_of_Gaussian_process_software dbr:Comparison_of_system_dynamics_software dbr:Computational_phylogenetics dbr:Computational_statistics dbr:Ziheng_Yang dbr:Empirical_Bayes_method dbr:Hamiltonian_Monte_Carlo dbr:Identity_by_descent dbr:Ideological_leanings_of_United_States_Supreme_Court_justices dbr:Population_structure_(genetics) dbr:Staggered_fermion dbr:Markov_Chains_and_Mixing_Times dbr:Markov_model dbr:Markov_property dbr:Markov_reward_model dbr:Augusta_H._Teller dbr:Autocorrelation dbr:BAli-Phy dbr:W._K._Hastings dbr:WinBUGS dbr:Glauber_dynamics dbr:Lattice_field_theory dbr:Sexual_dimorphism_measures dbr:Nitrogen-15_tracing dbr:ADMB dbr:Adaptive_design_(medicine) dbr:Alan_Sokal dbr:Daniel_Gianola dbr:Eulerian_path dbr:Eurasiatic_languages dbr:Fine-structure_constant dbr:Numerical_integration dbr:Owl_Scientific_Computing dbr:Cellular_noise dbr:Differential_testing dbr:Gerrymandering dbr:Global_optimization dbr:History_of_statistics dbr:Ising_model dbr:List_of_RNA_structure_prediction_software dbr:Potts_model dbr:Quantum_machine_learning dbr:Quasi-Monte_Carlo_method dbr:Rejection_sampling dbr:Haplotype dbr:Hardy–Weinberg_principle dbr:Jeff_Gill_(academic) dbr:Jeff_Rosenthal dbr:Coupling_from_the_past dbr:Jim_Propp dbr:Arianna_W._Rosenbluth dbr:ArviZ dbr:Alan_M._Frieze dbr:Jesper_Møller_(mathematician) dbr:Jun_S._Liu dbr:Just_another_Gibbs_sampler dbr:Keith_C._Clarke dbr:LaplacesDemon dbr:Bioinformatics dbr:Sumatran_rhinoceros dbr:Sylvia_Frühwirth-Schnatter dbr:Sylvia_Richardson dbr:Coalescent_theory dbr:Collective_classification dbr:Hidden_Markov_model dbr:Autologistic_actor_attribute_models dbr:Markov_chain_mixing_time dbr:Boltzmann_machine dbr:Phylogenetics dbr:Song-Chun_Zhu dbr:Source_attribution dbr:Info-gap_decision_theory dbr:OpenBUGS dbr:Catalog_of_articles_in_probability_theory dbr:Radford_M._Neal dbr:Random_walk dbr:Self-avoiding_walk dbr:Shaun_of_the_Dead dbr:Xiao-Li_Meng dbr:Markov_chain dbr:MANIAC_I dbr:MCMC dbr:Markov_random_field dbr:Maximum_a_posteriori_estimation dbr:Metropolis-adjusted_Langevin_algorithm dbr:Slice_sampling dbr:Stochastic_volatility dbr:Uncertainty_quantification dbr:Variable-order_Markov_model dbr:Variational_Bayesian_methods dbr:Nicholas_Polson dbr:Tutte_polynomial dbr:Statistical_classification dbr:FORMIND dbr:List_of_statistical_software dbr:List_of_statistics_articles dbr:List_of_things_named_after_Andrey_Markov dbr:Gibbs_sampling dbr:Gibbs_state dbr:Theory_of_conjoint_measurement dbr:Motion_planning dbr:Multicanonical_ensemble dbr:Multiple-try_Metropolis dbr:Stochastic_geometry dbr:Stochastic_process dbr:UCPH_Bioinformatics_Centre dbr:Non-uniform_random_variate_generation dbr:Reservoir_modeling dbr:Reversible-jump_Markov_chain_Monte_Carlo dbr:Outline_of_machine_learning dbr:Outline_of_statistics dbr:Parallel_tempering dbr:Markov_Chain_Monte_Carlo dbr:Markov_chain_monte_carlo dbr:Stephen_D._Levene dbr:Yuguo_Chen dbr:Stein_discrepancy dbr:Spatial_analysis dbr:Spike-and-slab_regression dbr:MCMC_method dbr:MCMC_methods dbr:Markov_Chain_Monte_Carlo_Simulations dbr:Markov_chain_Monte_Carlo_method dbr:Markov_chain_Monte_Carlo_methods dbr:Markov_clustering dbr:Random_walk_Monte_Carlo dbr:Monte_Carlo_markov_chain
is dbp:fields of dbr:Gareth_Roberts_(statistician) dbr:Ziheng_Yang
is dbp:knownFor of dbr:Julian_Besag dbr:Sylvia_Frühwirth-Schnatter
is foaf:primaryTopic of wikipedia-en:Markov_chain_Monte_Carlo