Markov chain (original) (raw)

About DBpedia

In der Wahrscheinlichkeitstheorie ist ein Markov-Modell ein stochastisches Modell, das zur Modellierung sich zufällig verändernder Systeme verwendet wird. Es wird angenommen, dass zukünftige Zustände nur vom aktuellen Zustand abhängen, nicht von den Ereignissen, die davor eingetreten sind (d. h. es nimmt die Markov-Eigenschaft an). Im Allgemeinen ermöglicht diese Annahme Schlussfolgerungen und Rechentechniken, die sonst unmöglich wären. Aus diesem Grund ist es in den Bereichen der prädiktiven Modellierung und probabilistischen Prognose wünschenswert, dass ein bestimmtes Modell die Markov-Eigenschaft aufweist.

thumbnail

Property Value
dbo:abstract Una cadena de Màrkov , que rep el seu nom del matemàtic rus Andrei Màrkov (1856-1922), és una sèrie d'esdeveniments, en la qual la probabilitat que passi un esdeveniment depèn de l'esdeveniment immediat anterior. En efecte, les cadenes d'aquest tipus tenen memòria. "Recorden" l'últim esdeveniment i això condiciona les possibilitats dels esdeveniments futurs. Aquesta dependència de l'esdeveniment anterior distingeix a les cadenes de Màrkov de les sèries d'esdeveniments independents, com tirar una moneda a l'aire o un dau. Aquest tipus de procés, introduït per Màrkov en un article publicat a 1907, presenta una forma de dependència simple, però molt útil en molts models, entre les variables aleatòries que formen un procés estocàstic. En els negocis, les cadenes de Màrkov s'han utilitzat per analitzar els patrons de compra dels , per planificar les necessitats de i per analitzar el reemplaçament d'equip. Les seves aplicacions són diverses, com ara en els models estadístics de procesos del món real, com ara l'estudi dels sistemes de control de creuer en vehicles amb motor, les cues de clients que arriben en un aeroport, les taxes de canvi de les monedes i les dinàmiques poblacionals dels animals. Els processos de Markov són la base dels mètodes generals de simulació estocàstica coneguts com cadena de Markov Monte Carlo, que s'utilitzen per simular mostres que provenen de distribucions probabilístiques complexes, i se n'han trobat aplicacions en l'estadística bayesiana, la termodinàmica, la mecànica estadística, la física, la química, l'economia, les finances, el processament de senyals, la teoria de la informació i la intel·ligència artificial. S'utilitza l'adjectiu markovià (en anglès, Markovian) per notar que alguna cosa està relacionada amb el procés de Markov. (ca) سلسلة ماركوف (بالإنجليزية: Markov Chain)‏ مصطلح رياضي وهو عبارة عن عملية تصادفية تحمل خاصية ماركوفية. في عملية كهذه، تكهُنُ المستقبل انطلاقا من الحاضر لا يحتاج إلى معرفة الماضي. ولقد أخذت اسم مبتكرها الروسي أندريا ماركوف. سلسلة ماركوف في وقت متقطع هي السلسلة X1, X2, X3,... متكونة من متغيرات عشوائية. مجموعة القيمات الممكنة تدعي فضاء الحالات. وXn تدعى حالة العملية في الآن n. إذا كان توزيع الاحتمال الشرطي لXn+1 على الحالات الفارطة دالة وحده إذن .حيث x هي دالة ما في العملية. المعادلة هذه تعرف بالاحتمال الماركوفي. نشر أندري ماركوف النتائج الأولى حول هذه العملية عام 1906م. التعميم إلى فضاء حالات لا متناهية معدودة أتى من (بالإنجليزية: Andrei Kolmogorov)‏ في 1936م. (ar) Markovův řetězec popisuje obvykle diskrétní náhodný (stochastický či pravděpodobnostní) proces, pro který platí, že pravděpodobnosti přechodu do následujícího stavu závisejí pouze na současném stavu, ne na předchozích stavech. Tato tzv. dovoluje proces znázornit stavovým diagramem, kde z každého stavu (uzlu grafu) vycházejí hrany možných přechodů do dalšího stavu s připsanou pravděpodobností. Obrázek říká, že je-li systém ve stavu E, přejde s pravděpodobností 0,7 do stavu A, kdežto s pravděpodobností 0,3 zůstane ve stavu E. Podobně po stavu A bude s pravděpodobností 0,4 následovat stav E, kdežto s pravděpodobností 0,6 systém zůstane ve stavu A. Chování takového systému je tedy „bezpaměťové“: není potřeba si pamatovat historii, stačí pouze aktuální stav. Reprezentací takového systému tedy může být konečný automat. Markovovy řetězce dostaly jméno po matematiku Andreji Markovovi. Příklad: Pokud je známo, s jakou pravděpodobností následují např. v angličtině po určitém znaku abecedy jiné znaky, lze automaticky generovat náhodné řetězce znaků, které sice zpravidla nedávají smysl, ale na pohled se anglickým větám velmi podobají. Markovovy řetězce mají mnoho praktických použití, zejména v informatice, v chemii, v ekonomii i v dalších společenských vědách. (cs) In der Wahrscheinlichkeitstheorie ist ein Markov-Modell ein stochastisches Modell, das zur Modellierung sich zufällig verändernder Systeme verwendet wird. Es wird angenommen, dass zukünftige Zustände nur vom aktuellen Zustand abhängen, nicht von den Ereignissen, die davor eingetreten sind (d. h. es nimmt die Markov-Eigenschaft an). Im Allgemeinen ermöglicht diese Annahme Schlussfolgerungen und Rechentechniken, die sonst unmöglich wären. Aus diesem Grund ist es in den Bereichen der prädiktiven Modellierung und probabilistischen Prognose wünschenswert, dass ein bestimmtes Modell die Markov-Eigenschaft aufweist. (de) Η αλυσίδα Μάρκοφ, ή μαρκοβιανή αλυσίδα, που πήρε το όνομα της από τον , είναι ένα μαθηματικό σύστημα που μεταβάλλεται από μια κατάσταση σε μια άλλη, ανάμεσα σε ένα πεπερασμένο αριθμό καταστάσεων. Είναι μια τυχαία διαδικασία που δε διατηρεί μνήμη για τις προηγούμενες μεταβολές: Η επόμενη κατάσταση εξαρτάται μόνο από την τωρινή κατάσταση και σε καμιά περίπτωση από αυτές που προηγήθηκαν. Αυτό το συγκεκριμένο είδος "αμνησίας" ονομάζεται μαρκοβιανή ιδιότητα. Οι Μαρκοβιανές Αλυσίδες έχουν πολλές εφαρμογές ως στατιστικά μοντέλα καθημερινών διαδικασιών. (el) Eine Markow-Kette (englisch Markov chain; auch Markow-Prozess, nach Andrei Andrejewitsch Markow; andere Schreibweisen Markov-Kette, Markoff-Kette, Markof-Kette) ist ein stochastischer Prozess. Ziel bei der Anwendung von Markow-Ketten ist es, Wahrscheinlichkeiten für das Eintreten zukünftiger Ereignisse anzugeben. Eine Markow-Kette ist darüber definiert, dass durch Kenntnis einer nur begrenzten Vorgeschichte ebenso gute Prognosen über die zukünftige Entwicklung möglich sind wie bei Kenntnis der gesamten Vorgeschichte des Prozesses. Man unterscheidet Markow-Ketten unterschiedlicher Ordnung. Im Falle einer Markow-Kette erster Ordnung heißt das: Der zukünftige Zustand des Prozesses ist nur durch den aktuellen Zustand bedingt und wird nicht durch vergangene Zustände beeinflusst. Die mathematische Formulierung im Falle einer endlichen Zustandsmenge benötigt lediglich den Begriff der diskreten Verteilung sowie der bedingten Wahrscheinlichkeit, während im zeitstetigen Falle die Konzepte der Filtration sowie der bedingten Erwartung benötigt werden. Die Begriffe Markow-Kette und Markow-Prozess werden im Allgemeinen synonym verwendet. Zum Teil sind aber zur Abgrenzung mit Markow-Ketten Prozesse in diskreter Zeit (diskreter Zustandsraum) gemeint und mit Markow-Prozessen Prozesse in stetiger Zeit (stetiger Zustandsraum). (de) En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior. Esta característica de incluir una memoria reciente recibe el nombre de propiedad de Markov en contraste con los eventos independientes que no tienen memoria de ningún evento anterior. En un primer artículo de 1906 A. A. Markov definió la "cadena simple" como "una secuencia infinita x1, x2, ..., xk, xk+1, ..., de variables conectadas de tal modo que xk+1 para cualquier k es independiente de x1, x2, ..., xk−1, en el caso de que xk sea conocida”. Markov llamó a la cadena "homogénea" si la distribución condicional de xk+1 dado xk fuese independiente de k. También consideró cadenas "complicadas (complex en inglés)" en las que "cada número está conectado directamente no sólo con uno, sino con varios números anteriores".​ Recibe su nombre del matemático ruso Andréi Márkov (1856-1922), que lo introdujo en 1906.​ Estos modelos estadísticos cuentan con un gran número de aplicaciones reales. (es) Probabilitate-teorian, Markov katea aldi bakoitzeanmultzo diskretu eta finko batekoi egoera batetik j egoera batera aldatzeko pij probabilitate konstanteak dituen prozesu estokastiko bat da,hasiera batean egoera bakoitzean izateko probabilitateak ere zehazten dituena. Nabarmendu behar da egoera jakinbatera aldatzeko probabilitatea aurreko aldiko egoeraren mendean dagoela soilik. Prozesu hauek Andrei Markov matematikariaren izena hartzen dute, bera izan baitzen horiek aztertu zituen lehena. Adibidez, toki batean egun bakoitzean euria egiteko probabilitatea bezperan euria egin zuen mendean dago.Bezperan euria egin bazuen, biharamunean euria egin eta ateri izateko probabilitateak0.3 eta 0.7 dira, hurrenez hurren. Aldiz, bezperan ateri izan bazen, biharamunean euria eta ateriizateko probabilitateak 0.4 eta 0.6 dira. Horrela, prozesu honi dagokion Markov katea honelairudika daiteke, matrize bat erabiliz, errenkadek bezpera eta zutabeak biharamuna adierazten dutelarik: Arestian agertzen direnak P(A/B) baldintzapeko probabilitateak dira: B gertatu dela jakinda, A gertatzeko probabilitatea alegia. Adibidean horrela planteatuta, biharamun bateko eguraldia bezperako eguraldiaren mendean dago soilik, Markoven kateen propietatea errespetatuz. Markov kateen azterketaz denboran zehar gertatzen den bilakaeraren ezaugarri eta propietateak ezagutuko dira,esaterako ohikoa da kateak izan dezakeen banaketa egonkorra kalkulatzea, epe luzera(kontuan hartu gabe zein alditan den) egoera bakoitzean izateko probabilitateak zehaztea. Emandako adibidean, banaketa egonkorrakepe luzera, eguna zehaztu gabe, edozein egunetan euria egin eta ateri izateko probabilitateak adieraziko lituzke, gaur egunetik behatuta. (eu) A Markov chain or Markov process is a stochastic model describing a sequence of possible events in which the probability of each event depends only on the state attained in the previous event. Informally, this may be thought of as, "What happens next depends only on the state of affairs now." A countably infinite sequence, in which the chain moves state at discrete time steps, gives a discrete-time Markov chain (DTMC). A continuous-time process is called a continuous-time Markov chain (CTMC). It is named after the Russian mathematician Andrey Markov. Markov chains have many applications as statistical models of real-world processes, such as studying cruise control systems in motor vehicles, queues or lines of customers arriving at an airport, currency exchange rates and animal population dynamics. Markov processes are the basis for general stochastic simulation methods known as Markov chain Monte Carlo, which are used for simulating sampling from complex probability distributions, and have found application in Bayesian statistics, thermodynamics, statistical mechanics, physics, chemistry, economics, finance, signal processing, information theory and speech processing. The adjectives Markovian and Markov are used to describe something that is related to a Markov process. (en) Sa mhatamaitic, is éard atá i Slabhra Markov ná slabhra eachtraí ina mbraitheann an dóchúlacht go ngluaisfear ar aghaidh don chéad staid eile ar an staid atá ann anois. Is féidir iad a léiriú le maitrísí. Léirítear slabhra Markov déstaide, ina bhfuil dhá staid a d'fhéadfaí a bheith ann, mar seo: Mar shampla, is féidir le duine taisteal abhaile ón obair ar charr nó traein. Má théann sé ar charr lá amháin, is í an dóchúlacht go ndéanfaidh sé amhlaidh an lá dár gcionn ná 0.4. Má théann sé ar an traein lá amháin, is í an dóchúlacht go ndéanfaidh sé amhlaidh an lá dár gcionn ná 0.3. Léirítear iad seo leis an maitrís thrasdultach: D'fhionn an matamaiticeoir Sóivéadach (1856-1922) an coincheap áisiúil seo. (ga) En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »). Les processus de Markov portent le nom de leur inventeur, Andreï Markov. Un processus de Markov à temps discret est une séquence de variables aléatoires à valeurs dans l’espace des états, qu'on notera dans la suite. La valeur est l'état du processus à l'instant Les applications où l'espace d'états est fini ou dénombrable sont innombrables : on parle alors de chaîne de Markov ou de chaînes de Markov à espace d'états discret. Les propriétés essentielles des processus de Markov généraux, par exemple les propriétés de récurrence et d'ergodicité, s'énoncent ou se démontrent plus simplement dans le cas des chaînes de Markov à espace d'états discret. Cet article concerne précisément les chaînes de Markov à espace d'états discret. Andreï Markov a publié les premiers résultats sur les chaînes de Markov à espace d'états fini en 1906. Une généralisation à un espace d'états infini dénombrable a été publiée par Kolmogorov en 1936. Les processus de Markov sont liés au mouvement brownien et à l'hypothèse ergodique, deux sujets de physique statistique qui ont été très importants au début du XXe siècle. (fr) Rantai Markov adalah proses stokastik yang menggambarkan urutan barisan yang mungkin di mana probabilitas setiap kejadian hanya bergantung pada keadaan yang dicapai pada kejadian sebelumnya. Urutan tak terbatas yang dapat dihitung, di mana rantai bergerak pada langkah waktu diskrit, memberikan rantai Markov waktu diskrit (DTMC). Proses waktu kontinu disebut rantai Markov waktu kontinu (CTMC). Ini dinamai ahli matematika Rusia Andrei Markov. Rantai Markov memiliki banyak aplikasi sebagai model statistik dari proses dunia nyata,, seperti mempelajari sistem kendali jelajah pada kendaraan bermotor, antrian atau antrian pelanggan yang tiba di bandara, nilai tukar mata uang dan dinamika populasi hewan. Proses Markov adalah dasar untuk metode simulasi stokastik umum yang dikenal sebagai rantai Markov Monte Carlo, yang digunakan untuk mensimulasikan pengambilan sampel dari distribusi probabilitas yang kompleks, dan telah menemukan aplikasi dalam statistik Bayesian, termodinamika, mekanika statistik, fisika, kimia, ekonomi, keuangan, sinyal pemrosesan, teori informasi, dan pemrosesan ucapan. (in) マルコフ連鎖(マルコフれんさ、英: Markov chain)とは、確率過程の一種であるマルコフ過程のうち、とりうる状態が離散的(有限または可算)なもの(離散状態マルコフ過程)をいう。また特に、時間が離散的なもの(時刻は添え字で表される)を指すことが多い。マルコフ連鎖は、未来の挙動が現在の値だけで決定され、過去の挙動と無関係である(マルコフ性)。各時刻において起こる状態変化(遷移または推移)に関して、マルコフ連鎖は遷移確率が過去の状態によらず、現在の状態のみによる系列である。特に重要な確率過程として、様々な分野に応用される。 (ja) 마르코프 모형 또는 마르코프 모델은 확률 모델의 유형이다. (ko) Si definisce processo stocastico markoviano (o di Markov), un processo aleatorio in cui la probabilità di transizione che determina il passaggio a uno stato di sistema dipende solo dallo stato del sistema immediatamente precedente (proprietà di Markov) e non da come si è giunti a questo stato. Viceversa si dice processo non markoviano un processo aleatorio per cui non vale la proprietà di Markov. Prende il nome dal matematico russo Andrej Andreevič Markov che per primo ne sviluppò la teoria. Modelli di tipo markoviano vengono utilizzati nella progettazione di reti di telecomunicazioni: la teoria delle code che ne consegue trova applicazione in molti ambiti, dalla fila agli sportelli ai pacchetti dati in coda in un router. Un processo di Markov può essere descritto per mezzo dell'enunciazione della proprietà di Markov, o condizione di "assenza di memoria", che può essere scritta come: (it) Een markovketen, genoemd naar de Russische wiskundige Andrej Markov, beschrijft een systeem dat zich door een aantal toestanden beweegt en stapsgewijs overgangen vertoont van de ene naar een andere (of dezelfde) toestand. De specifieke markov-eigenschap houdt daarbij in dat populair uitgedrukt: "de toekomst gegeven het heden niet afhangt van het verleden". Dat betekent dat als het systeem zich in een bepaalde toestand bevindt, het toekomstige gedrag van het systeem, dus de komende overgangen, slechts afhangen van de huidige toestand en niet van de weg waarlangs deze toestand tot stand is gekomen. De successievelijke toestanden van het systeem worden beschreven door een rij stochastische variabelen met respectievelijke kansverdelingen , waarin de toestand van het systeem is na stappen. De markov-eigenschap wordt uitgedrukt in een eigenschap van de overgangskansen. (nl) 확률론에서 마르코프 연쇄(Марков 連鎖, 영어: Markov chain)는 이산 시간 확률 과정이다. 마르코프 연쇄는 시간에 따른 계의 상태의 변화를 나타낸다. 매 시간마다 계는 상태를 바꾸거나 같은 상태를 유지한다. 상태의 변화를 전이라 한다. 마르코프 성질은 과거와 현재 상태가 주어졌을 때의 미래 상태의 조건부 확률 분포가 과거 상태와는 독립적으로 현재 상태에 의해서만 결정된다는 것을 뜻한다 (ko) Proces Markowa – ciąg zdarzeń, w którym prawdopodobieństwo każdego zdarzenia zależy jedynie od wyniku poprzedniego. W ujęciu matematycznym, procesy Markowa to takie procesy stochastyczne, które spełniają własność Markowa. Łańcuchy Markowa to procesy Markowa z czasem dyskretnym. Łańcuch Markowa jest ciągiem zmiennych losowych. Dziedzinę tych zmiennych nazywamy przestrzenią stanów, a realizacje to stany w czasie Jeśli rozkład warunkowy jest funkcją wyłącznie zmiennej to mówimy, że proces stochastyczny posiada własność Markowa. Przedstawiona definicja zakłada czas dyskretny. Istnieją procesy Markowa z czasem ciągłym, jednak nie są one przedstawione w tym artykule. Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku. Uogólnienie na przeliczalnie nieskończone przestrzenie stanów zostało opracowane przez Kołmogorowa w 1936. Łańcuchy Markowa mają związek z ruchami Browna oraz hipotezą ergodyczną, dwoma ważnymi w fizyce tematami, ale powstały jako uogólnienie prawa wielkich liczb na zdarzenia zależne. (pl) Це́пь Ма́ркова — последовательность случайных событий с конечным или счётным числом исходов, где вероятность наступления каждого события зависит только от состояния, достигнутого в предыдущем событии. Характеризуется тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого. Названа в честь А. А. Маркова (старшего), который впервые ввёл это понятие в работе 1906 года. (ru) Em matemática, uma cadeia de Markov (cadeia de Markov em tempo discreto ou DTMC) é um caso particular de processo estocástico com estados discretos (o parâmetro, em geral o tempo, pode ser discreto ou contínuo) com a propriedade de que a distribuição de probabilidade do próximo estado depende apenas do estado atual e não na sequência de eventos que precederam, uma propriedade chamada de Markoviana, chamada assim em homenagem ao matemático Andrei Andreyevich Markov. A definição dessa propriedade, também chamada de memória markoviana, é que os estados anteriores são irrelevantes para a predição dos estados seguintes, desde que o estado atual seja conhecido. Cadeias de Markov têm muitas aplicações como modelos estatísticos de processos do mundo real. (pt) En Markovkedja är inom matematiken en tidsdiskret stokastisk process med Markovegenskapen, det vill säga att processens förlopp kan bestämmas utifrån dess befintliga tillstånd utan kännedom om det förflutna. En Markovkedja som är tidskontinuerlig kallas en Markovprocess. En Markovkedja som antar ändligt många värden kan representeras av en övergångsmatris. Givet en sannolikhetsvektor, erhålles sannolikhetsvektorn för nästa steg i kedjan av multiplikation med övergångsmatrisen. Flera steg kan beräknas genom exponentiering av övergångsmatrisen. Det är även möjligt att beräkna processens , det vill säga vad som händer då processen fortsätter i oändligheten, med hjälp av egenvektorer. Markovkedjor har många tillämpningsområden, bland annat för att beskriva och inom bioinformatik. Resultaten som ligger till grund för teorin om Markovkedjor framlades 1906 av Andrej Markov. (sv) Ланцюг Маркова в математиці це випадковий процес, що задовольняє властивість Маркова і який приймає скінченну чи зліченну кількість значень (станів). Існують ланцюги Маркова як з дискретним так і з неперервним часом. В даній статті розглядається дискретний випадок. (uk) 马尔可夫链(英語:Markov chain),又稱離散時間馬可夫鏈(discrete-time Markov chain,縮寫為DTMC),因俄國數學家安德烈·马尔可夫得名,为狀態空間中经过从一个状态到另一个状态的转换的随机过程。该过程要求具备“无记忆”的性质:下一状态的概率分布只能由当前状态决定,在时间序列中它前面的事件均与之无关。这种特定类型的“无记忆性”称作馬可夫性質。马尔科夫链作为实际过程的统计模型具有许多应用。 在马尔可夫链的每一步,系统根据概率分布,可以从一个状态变到另一个状态,也可以保持当前状态。状态的改变叫做转移,与不同的状态改变相关的概率叫做转移概率。随机漫步就是马尔可夫链的例子。随机漫步中每一步的状态是在图形中的点,每一步可以移动到任何一个相邻的点,在这里移动到每一个点的概率都是相同的(无论之前漫步路径是如何的)。 (zh) У теорії ймовірностей, моделі Маркова це стохастичні моделі, які використовуються для моделювання систем, що випадково змінюються, де передбачається, що майбутні стани залежать тільки від поточного стану, а не від послідовності подій, які передували цьому (тобто, вона передбачає властивість Маркова). Як правило, це припущення дозволяє міркування і обчислення з моделлю, яка б в іншому випадку лишилась нерозв'язною. (uk)
dbo:thumbnail wiki-commons:Special:FilePath/Markovkate_01.svg?width=300
dbo:wikiPageExternalLink https://semanticscholar.org/paper/343829c84e1f9b3fcf6f0ff2d2a1c680426faaaf https://archive.org/details/finitemathematic0000keme_h5g0 https://web.archive.org/web/20100619010320/https:/netfiles.uiuc.edu/meyn/www/spm_files/book.html https://web.archive.org/web/20100619011046/https:/netfiles.uiuc.edu/meyn/www/spm_files/CTCN/CTCN.html http://rarlindseysmash.com/posts/2009-11-21-making-sense-and-nonsense-of-markov-chains http://jasss.soc.surrey.ac.uk/12/1/6.html http://www.alpha60.de/research/markov/DavidLink_AnExampleOfStatistical_MarkovTrans_2007.pdf http://setosa.io/blog/2014/07/26/markov-chains/index.html http://www.dartmouth.edu/~chance/teaching_aids/books_articles/probability_book/Chapter11.pdf https://web.archive.org/web/20080522131917/http:/www.dartmouth.edu/~chance/teaching_aids/books_articles/probability_book/Chapter11.pdf
dbo:wikiPageID 60876 (xsd:integer)
dbo:wikiPageLength 96077 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1123291087 (xsd:integer)
dbo:wikiPageWikiLink dbr:Bayesian_inference dbr:Bayesian_statistics dbr:Element_(mathematics) dbr:MIDI dbr:Motor_vehicle dbr:Natural_language_generation dbr:Nucleotide dbr:M/M/1_queue dbr:Parody_generator dbr:Partially_observable_Markov_decision_process dbr:Time_series dbr:Algorithmic_composition dbr:Paul_Ehrenfest dbr:D._G._Champernowne dbr:Defective_matrix dbr:Dynamical_system dbr:Dynamics_of_Markovian_particles dbr:Interacting_particle_system dbr:J._Laurie_Snell dbr:Number_line dbr:Conditional_probability dbr:Continuous-time_Markov_chain dbr:Countable_set dbr:Countably_infinite dbr:Matrix_(mathematics) dbr:Max_(software) dbr:Measure_(mathematics) dbr:Memorylessness dbr:Russia dbr:Gauss–Markov_process dbr:Genome dbr:Markov_odometer dbr:Norm_(mathematics) dbr:Pavel_Nekrasov dbr:Transition_rate_matrix dbr:Quantum_Markov_chain dbr:Claude_Shannon dbr:Eigenvalue dbr:Eigenvector dbr:Entropy_encoding dbr:Google dbr:Greatest_common_divisor dbr:Conditional_probability_distribution dbr:Continuous_or_discrete_variable dbr:Continuous_stochastic_process dbr:Copolymer dbr:Credit_rating_agency dbr:Cruise_control dbr:State_space dbr:Ornstein_isomorphism_theorem dbr:Andrey_Markov dbr:Arithmetic_coding dbr:Bernoulli_process dbr:Bernoulli_scheme dbr:Lempel–Ziv–Markov_chain_algorithm dbr:Louis_Bachelier dbr:Signal_processing dbr:Statistical_model dbr:Stochastic_matrix dbr:Closed_manifold dbr:Compartmental_models_in_epidemiology dbr:Harris_chain dbr:Identity_matrix dbr:Pattern_recognition dbr:Physics dbr:Main_diagonal dbr:Mark_V._Shaney dbr:Markov_chain_approximation_method dbr:Markov_chain_central_limit_theorem dbr:Markov_chain_geostatistics dbr:Markov_chain_tree_theorem dbr:Markov_chains_on_a_measurable_state_space dbr:Markov_information_source dbr:Markov_model dbr:Markov_property dbr:Master_equation dbr:Middle_class dbr:Viterbi_algorithm dbr:Authoritarian dbr:Data_compression dbr:Weak_law_of_large_numbers dbr:William_Feller dbr:Dissociated_press dbr:Gambler's_ruin dbr:Jump_process dbr:Lattice_QCD dbr:Steric_effects dbr:Speech_processing dbr:Adjacency_matrix dbr:Agner_Krarup_Erlang dbr:Alexander_Pushkin dbr:Csound dbr:Das_Kapital dbr:Economics dbr:Ergodic dbr:Ergodic_theory dbr:Eugene_Dynkin dbr:Expected_value dbr:Finite_set dbr:Francis_Galton dbr:Norbert_Wiener dbr:PageRank dbr:Capitalism dbr:Diagonal_matrix dbr:Diffeomorphism dbr:Discrete-time_Markov_chain dbr:Jordan_normal_form dbr:Kelly's_lemma dbr:Kolmogorov's_criterion dbr:Population_dynamics dbr:Thermodynamics dbr:First-order_differential_equation dbr:Perron–Frobenius_theorem dbr:Queueing_theory dbr:Random_variable dbr:Reinforcement_learning dbr:Speech_recognition dbr:Henri_Poincaré dbr:Herbert_A._Simon dbr:Hertz dbr:Hi_Ho!_Cherry-O dbr:Irénée-Jules_Bienaymé dbr:James_D._Hamilton dbr:Probability_vector dbr:Statistical_mechanics dbr:Michaelis-Menten_kinetics dbr:Stationary_stochastic_process dbr:AstroTurf dbr:A_Mathematical_Theory_of_Communication dbc:Random_text_generation dbc:Graph_theory dbc:Markov_models dbc:Markov_processes dbr:Chemistry dbr:John_G._Kemeny dbr:Karl_Marx dbr:LZ77_and_LZ78 dbr:Bioinformatics dbr:SuperCollider dbr:Sydney_Chapman_(mathematician) dbr:Systems_biology dbr:Economic_development dbr:Efficient-market_hypothesis dbr:Henry_William_Watson dbr:Hidden_Markov_model dbr:Wiener_process dbr:Models_of_DNA_evolution dbr:Autoregressive_model dbr:Markov_chain_mixing_time dbr:Bunt_(baseball) dbr:Phrase_(music) dbr:Phylogenetics dbr:Poisson_point_process dbr:Political dbr:Society_for_Industrial_and_Applied_Mathematics dbr:Solar_power dbr:Finance dbr:Independence_(probability_theory) dbr:Information_theory dbr:Integers dbr:Kronecker_delta dbr:Brownian_motion dbr:Natural_numbers dbr:Neurobiology dbr:Random_walk dbr:Chapman–Kolmogorov_equation dbr:Sequence dbr:Kishor_S._Trivedi dbr:Markov_blanket dbr:Unit_vector dbr:Markov_chain_Monte_Carlo dbr:Markov_decision_process dbr:Markov_random_field dbr:Markov_switching_multifractal dbr:Matrix_population_models dbr:Snakes_and_Ladders dbr:Software dbr:Variable-order_Markov_model dbr:Laurent_E._Calvet dbr:Eugene_Onegin dbr:In_silico dbr:Michaelis–Menten_kinetics dbr:Exchange_rate dbr:Finite_group dbr:Telescoping_Markov_chain dbr:Stochastic_cellular_automaton dbr:Stochastic_process dbr:Thue–Morse_sequence dbr:System_of_linear_equations dbr:Stochastic_cellular_automata dbr:Zero_matrix dbr:Superlattice dbr:J._L._Doob dbr:Right_stochastic_matrix dbr:Base_stealing dbr:State_estimation dbr:Stationary_probability_distribution dbr:General_equilibrium dbr:Forward_equation dbr:Andrei_Kolmogorov dbr:Finite_graph dbr:Tatyana_Ehrenfest dbr:Eigendecomposition dbr:Poisson_process dbr:Maurice_Fréchet dbr:Continuous-time dbr:Path-dependent dbr:Sofic_system dbr:Information_entropy dbr:Posterior_distribution dbr:Semi-Markov_process dbr:Democratic_regime dbr:Little-o_notation dbr:Standard_simplex dbr:File:AAMarkov.jpg dbr:File:Markovkate_01.svg dbr:File:Intensities_vs_transition_probabilities.svg dbr:Block-coding_system dbr:Chacon_system dbr:Context-free_system dbr:File:PageRank_with_Markov_Chain.png dbr:Locally_interacting_Markov_chains dbr:The_RiTa_Toolkit
dbp:align left (en)
dbp:caption Michaelis-Menten kinetics. The enzyme binds a substrate and produces a product . Each reaction is a state transition in a Markov chain. (en)
dbp:content {E} + \underset{Substrate\atop binding}{S E}\overset{Catalytic\atop step}{S -> E} + P (en)
dbp:date 2008-05-22 (xsd:date)
dbp:id p/m062350 (en)
dbp:title Markov chain (en)
dbp:url https://web.archive.org/web/20080522131917/http:/www.dartmouth.edu/~chance/teaching_aids/books_articles/probability_book/Chapter11.pdf
dbp:width 200 (xsd:integer)
dbp:wikiPageUsesTemplate dbt:Anchor dbt:Authority_control dbt:Cite_book dbt:Cite_journal dbt:Clear dbt:Div_col dbt:Div_col_end dbt:ISBN dbt:Image_frame dbt:Main dbt:Music dbt:Mvar dbt:No_footnotes dbt:Pb dbt:Pi dbt:Refbegin dbt:Refend dbt:Reflist dbt:Short_description dbt:Webarchive dbt:YouTube dbt:Toclimit dbt:SpringerEOM dbt:Probability_fundamentals dbt:Stochastic_processes
dcterms:subject dbc:Random_text_generation dbc:Graph_theory dbc:Markov_models dbc:Markov_processes
gold:hypernym dbr:Process
rdf:type owl:Thing yago:WikicatMarkovProcesses yago:WikicatStochasticProcesses yago:Abstraction100002137 yago:Act100030358 yago:Activity100407535 yago:Cognition100023271 yago:Concept105835747 yago:Content105809192 yago:Event100029378 yago:Hypothesis105888929 yago:Idea105833840 yago:Model105890249 yago:Procedure101023820 yago:PsychologicalFeature100023100 yago:YagoPermanentlyLocatedEntity dbo:Election yago:StochasticProcess113561896
rdfs:comment In der Wahrscheinlichkeitstheorie ist ein Markov-Modell ein stochastisches Modell, das zur Modellierung sich zufällig verändernder Systeme verwendet wird. Es wird angenommen, dass zukünftige Zustände nur vom aktuellen Zustand abhängen, nicht von den Ereignissen, die davor eingetreten sind (d. h. es nimmt die Markov-Eigenschaft an). Im Allgemeinen ermöglicht diese Annahme Schlussfolgerungen und Rechentechniken, die sonst unmöglich wären. Aus diesem Grund ist es in den Bereichen der prädiktiven Modellierung und probabilistischen Prognose wünschenswert, dass ein bestimmtes Modell die Markov-Eigenschaft aufweist. (de) Η αλυσίδα Μάρκοφ, ή μαρκοβιανή αλυσίδα, που πήρε το όνομα της από τον , είναι ένα μαθηματικό σύστημα που μεταβάλλεται από μια κατάσταση σε μια άλλη, ανάμεσα σε ένα πεπερασμένο αριθμό καταστάσεων. Είναι μια τυχαία διαδικασία που δε διατηρεί μνήμη για τις προηγούμενες μεταβολές: Η επόμενη κατάσταση εξαρτάται μόνο από την τωρινή κατάσταση και σε καμιά περίπτωση από αυτές που προηγήθηκαν. Αυτό το συγκεκριμένο είδος "αμνησίας" ονομάζεται μαρκοβιανή ιδιότητα. Οι Μαρκοβιανές Αλυσίδες έχουν πολλές εφαρμογές ως στατιστικά μοντέλα καθημερινών διαδικασιών. (el) マルコフ連鎖(マルコフれんさ、英: Markov chain)とは、確率過程の一種であるマルコフ過程のうち、とりうる状態が離散的(有限または可算)なもの(離散状態マルコフ過程)をいう。また特に、時間が離散的なもの(時刻は添え字で表される)を指すことが多い。マルコフ連鎖は、未来の挙動が現在の値だけで決定され、過去の挙動と無関係である(マルコフ性)。各時刻において起こる状態変化(遷移または推移)に関して、マルコフ連鎖は遷移確率が過去の状態によらず、現在の状態のみによる系列である。特に重要な確率過程として、様々な分野に応用される。 (ja) 마르코프 모형 또는 마르코프 모델은 확률 모델의 유형이다. (ko) 확률론에서 마르코프 연쇄(Марков 連鎖, 영어: Markov chain)는 이산 시간 확률 과정이다. 마르코프 연쇄는 시간에 따른 계의 상태의 변화를 나타낸다. 매 시간마다 계는 상태를 바꾸거나 같은 상태를 유지한다. 상태의 변화를 전이라 한다. 마르코프 성질은 과거와 현재 상태가 주어졌을 때의 미래 상태의 조건부 확률 분포가 과거 상태와는 독립적으로 현재 상태에 의해서만 결정된다는 것을 뜻한다 (ko) Це́пь Ма́ркова — последовательность случайных событий с конечным или счётным числом исходов, где вероятность наступления каждого события зависит только от состояния, достигнутого в предыдущем событии. Характеризуется тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого. Названа в честь А. А. Маркова (старшего), который впервые ввёл это понятие в работе 1906 года. (ru) Em matemática, uma cadeia de Markov (cadeia de Markov em tempo discreto ou DTMC) é um caso particular de processo estocástico com estados discretos (o parâmetro, em geral o tempo, pode ser discreto ou contínuo) com a propriedade de que a distribuição de probabilidade do próximo estado depende apenas do estado atual e não na sequência de eventos que precederam, uma propriedade chamada de Markoviana, chamada assim em homenagem ao matemático Andrei Andreyevich Markov. A definição dessa propriedade, também chamada de memória markoviana, é que os estados anteriores são irrelevantes para a predição dos estados seguintes, desde que o estado atual seja conhecido. Cadeias de Markov têm muitas aplicações como modelos estatísticos de processos do mundo real. (pt) Ланцюг Маркова в математиці це випадковий процес, що задовольняє властивість Маркова і який приймає скінченну чи зліченну кількість значень (станів). Існують ланцюги Маркова як з дискретним так і з неперервним часом. В даній статті розглядається дискретний випадок. (uk) 马尔可夫链(英語:Markov chain),又稱離散時間馬可夫鏈(discrete-time Markov chain,縮寫為DTMC),因俄國數學家安德烈·马尔可夫得名,为狀態空間中经过从一个状态到另一个状态的转换的随机过程。该过程要求具备“无记忆”的性质:下一状态的概率分布只能由当前状态决定,在时间序列中它前面的事件均与之无关。这种特定类型的“无记忆性”称作馬可夫性質。马尔科夫链作为实际过程的统计模型具有许多应用。 在马尔可夫链的每一步,系统根据概率分布,可以从一个状态变到另一个状态,也可以保持当前状态。状态的改变叫做转移,与不同的状态改变相关的概率叫做转移概率。随机漫步就是马尔可夫链的例子。随机漫步中每一步的状态是在图形中的点,每一步可以移动到任何一个相邻的点,在这里移动到每一个点的概率都是相同的(无论之前漫步路径是如何的)。 (zh) У теорії ймовірностей, моделі Маркова це стохастичні моделі, які використовуються для моделювання систем, що випадково змінюються, де передбачається, що майбутні стани залежать тільки від поточного стану, а не від послідовності подій, які передували цьому (тобто, вона передбачає властивість Маркова). Як правило, це припущення дозволяє міркування і обчислення з моделлю, яка б в іншому випадку лишилась нерозв'язною. (uk) سلسلة ماركوف (بالإنجليزية: Markov Chain)‏ مصطلح رياضي وهو عبارة عن عملية تصادفية تحمل خاصية ماركوفية. في عملية كهذه، تكهُنُ المستقبل انطلاقا من الحاضر لا يحتاج إلى معرفة الماضي. ولقد أخذت اسم مبتكرها الروسي أندريا ماركوف. سلسلة ماركوف في وقت متقطع هي السلسلة X1, X2, X3,... متكونة من متغيرات عشوائية. مجموعة القيمات الممكنة تدعي فضاء الحالات. وXn تدعى حالة العملية في الآن n. إذا كان توزيع الاحتمال الشرطي لXn+1 على الحالات الفارطة دالة وحده إذن .حيث x هي دالة ما في العملية. المعادلة هذه تعرف بالاحتمال الماركوفي. (ar) Una cadena de Màrkov , que rep el seu nom del matemàtic rus Andrei Màrkov (1856-1922), és una sèrie d'esdeveniments, en la qual la probabilitat que passi un esdeveniment depèn de l'esdeveniment immediat anterior. En efecte, les cadenes d'aquest tipus tenen memòria. "Recorden" l'últim esdeveniment i això condiciona les possibilitats dels esdeveniments futurs. Aquesta dependència de l'esdeveniment anterior distingeix a les cadenes de Màrkov de les sèries d'esdeveniments independents, com tirar una moneda a l'aire o un dau. (ca) Markovův řetězec popisuje obvykle diskrétní náhodný (stochastický či pravděpodobnostní) proces, pro který platí, že pravděpodobnosti přechodu do následujícího stavu závisejí pouze na současném stavu, ne na předchozích stavech. Tato tzv. dovoluje proces znázornit stavovým diagramem, kde z každého stavu (uzlu grafu) vycházejí hrany možných přechodů do dalšího stavu s připsanou pravděpodobností. Markovovy řetězce mají mnoho praktických použití, zejména v informatice, v chemii, v ekonomii i v dalších společenských vědách. (cs) Eine Markow-Kette (englisch Markov chain; auch Markow-Prozess, nach Andrei Andrejewitsch Markow; andere Schreibweisen Markov-Kette, Markoff-Kette, Markof-Kette) ist ein stochastischer Prozess. Ziel bei der Anwendung von Markow-Ketten ist es, Wahrscheinlichkeiten für das Eintreten zukünftiger Ereignisse anzugeben. Eine Markow-Kette ist darüber definiert, dass durch Kenntnis einer nur begrenzten Vorgeschichte ebenso gute Prognosen über die zukünftige Entwicklung möglich sind wie bei Kenntnis der gesamten Vorgeschichte des Prozesses. (de) En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior. Esta característica de incluir una memoria reciente recibe el nombre de propiedad de Markov en contraste con los eventos independientes que no tienen memoria de ningún evento anterior. En un primer artículo de 1906 A. A. Markov definió la "cadena simple" como "una secuencia infinita x1, x2, ..., xk, xk+1, ..., de variables conectadas de tal modo que xk+1 para cualquier k es independiente de x1, x2, ..., xk−1, en el caso de que xk sea conocida”. Markov llamó a la cadena "homogénea" si la distribución condicional de xk+1 dado xk fuese independiente de k. Ta (es) Probabilitate-teorian, Markov katea aldi bakoitzeanmultzo diskretu eta finko batekoi egoera batetik j egoera batera aldatzeko pij probabilitate konstanteak dituen prozesu estokastiko bat da,hasiera batean egoera bakoitzean izateko probabilitateak ere zehazten dituena. Nabarmendu behar da egoera jakinbatera aldatzeko probabilitatea aurreko aldiko egoeraren mendean dagoela soilik. Prozesu hauek Andrei Markov matematikariaren izena hartzen dute, bera izan baitzen horiek aztertu zituen lehena. (eu) En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »). Les processus de Markov portent le nom de leur inventeur, Andreï Markov. (fr) A Markov chain or Markov process is a stochastic model describing a sequence of possible events in which the probability of each event depends only on the state attained in the previous event. Informally, this may be thought of as, "What happens next depends only on the state of affairs now." A countably infinite sequence, in which the chain moves state at discrete time steps, gives a discrete-time Markov chain (DTMC). A continuous-time process is called a continuous-time Markov chain (CTMC). It is named after the Russian mathematician Andrey Markov. (en) Sa mhatamaitic, is éard atá i Slabhra Markov ná slabhra eachtraí ina mbraitheann an dóchúlacht go ngluaisfear ar aghaidh don chéad staid eile ar an staid atá ann anois. Is féidir iad a léiriú le maitrísí. Léirítear slabhra Markov déstaide, ina bhfuil dhá staid a d'fhéadfaí a bheith ann, mar seo: D'fhionn an matamaiticeoir Sóivéadach (1856-1922) an coincheap áisiúil seo. (ga) Rantai Markov adalah proses stokastik yang menggambarkan urutan barisan yang mungkin di mana probabilitas setiap kejadian hanya bergantung pada keadaan yang dicapai pada kejadian sebelumnya. Urutan tak terbatas yang dapat dihitung, di mana rantai bergerak pada langkah waktu diskrit, memberikan rantai Markov waktu diskrit (DTMC). Proses waktu kontinu disebut rantai Markov waktu kontinu (CTMC). Ini dinamai ahli matematika Rusia Andrei Markov. (in) Si definisce processo stocastico markoviano (o di Markov), un processo aleatorio in cui la probabilità di transizione che determina il passaggio a uno stato di sistema dipende solo dallo stato del sistema immediatamente precedente (proprietà di Markov) e non da come si è giunti a questo stato. Viceversa si dice processo non markoviano un processo aleatorio per cui non vale la proprietà di Markov. Prende il nome dal matematico russo Andrej Andreevič Markov che per primo ne sviluppò la teoria. Modelli di tipo markoviano vengono utilizzati nella progettazione di reti di telecomunicazioni: la teoria delle code che ne consegue trova applicazione in molti ambiti, dalla fila agli sportelli ai pacchetti dati in coda in un router. (it) Een markovketen, genoemd naar de Russische wiskundige Andrej Markov, beschrijft een systeem dat zich door een aantal toestanden beweegt en stapsgewijs overgangen vertoont van de ene naar een andere (of dezelfde) toestand. De specifieke markov-eigenschap houdt daarbij in dat populair uitgedrukt: "de toekomst gegeven het heden niet afhangt van het verleden". Dat betekent dat als het systeem zich in een bepaalde toestand bevindt, het toekomstige gedrag van het systeem, dus de komende overgangen, slechts afhangen van de huidige toestand en niet van de weg waarlangs deze toestand tot stand is gekomen. De successievelijke toestanden van het systeem worden beschreven door een rij stochastische variabelen met respectievelijke kansverdelingen , waarin de toestand van het systeem is na stappen. D (nl) Proces Markowa – ciąg zdarzeń, w którym prawdopodobieństwo każdego zdarzenia zależy jedynie od wyniku poprzedniego. W ujęciu matematycznym, procesy Markowa to takie procesy stochastyczne, które spełniają własność Markowa. Łańcuchy Markowa to procesy Markowa z czasem dyskretnym. Łańcuch Markowa jest ciągiem zmiennych losowych. Dziedzinę tych zmiennych nazywamy przestrzenią stanów, a realizacje to stany w czasie Jeśli rozkład warunkowy jest funkcją wyłącznie zmiennej to mówimy, że proces stochastyczny posiada własność Markowa. (pl) En Markovkedja är inom matematiken en tidsdiskret stokastisk process med Markovegenskapen, det vill säga att processens förlopp kan bestämmas utifrån dess befintliga tillstånd utan kännedom om det förflutna. En Markovkedja som är tidskontinuerlig kallas en Markovprocess. Markovkedjor har många tillämpningsområden, bland annat för att beskriva och inom bioinformatik. Resultaten som ligger till grund för teorin om Markovkedjor framlades 1906 av Andrej Markov. (sv)
rdfs:label سلسلة ماركوف (ar) Cadena de Màrkov (ca) Markovův řetězec (cs) Markow-Kette (de) Markov-Modell (de) Αλυσίδα Μάρκοφ (el) Cadena de Márkov (es) Markov kate (eu) Slabhra Markov (ga) Rantai Markov (in) Chaîne de Markov (fr) Processo markoviano (it) Markov chain (en) 마르코프 모형 (ko) 마르코프 연쇄 (ko) マルコフ連鎖 (ja) Markovketen (nl) Łańcuch Markowa (pl) Cadeias de Markov (pt) Цепь Маркова (ru) Markovkedja (sv) Ланцюг Маркова (uk) Марковська модель (uk) 马尔可夫链 (zh)
owl:sameAs dbpedia-de:Markov chain freebase:Markov chain http://d-nb.info/gnd/4037612-6 http://d-nb.info/gnd/4168923-9 yago-res:Markov chain wikidata:Markov chain wikidata:Markov chain dbpedia-af:Markov chain dbpedia-ar:Markov chain http://ast.dbpedia.org/resource/Cadena_de_Márkov dbpedia-bg:Markov chain dbpedia-ca:Markov chain dbpedia-cs:Markov chain dbpedia-da:Markov chain dbpedia-de:Markov chain dbpedia-el:Markov chain dbpedia-es:Markov chain dbpedia-et:Markov chain dbpedia-eu:Markov chain dbpedia-fa:Markov chain dbpedia-fa:Markov chain dbpedia-fi:Markov chain dbpedia-fr:Markov chain dbpedia-ga:Markov chain dbpedia-gl:Markov chain dbpedia-he:Markov chain dbpedia-hr:Markov chain dbpedia-hu:Markov chain http://hy.dbpedia.org/resource/Մարկովի_շղթա dbpedia-id:Markov chain dbpedia-is:Markov chain dbpedia-it:Markov chain dbpedia-ja:Markov chain dbpedia-ko:Markov chain dbpedia-ko:Markov chain http://lt.dbpedia.org/resource/Markovo_grandinė http://ml.dbpedia.org/resource/മാർക്കോവ്_മാതൃക dbpedia-ms:Markov chain dbpedia-nl:Markov chain dbpedia-nn:Markov chain dbpedia-no:Markov chain dbpedia-pl:Markov chain dbpedia-pt:Markov chain dbpedia-ro:Markov chain dbpedia-ru:Markov chain dbpedia-sh:Markov chain dbpedia-simple:Markov chain dbpedia-sr:Markov chain http://su.dbpedia.org/resource/Ranté_Markov dbpedia-sv:Markov chain http://ta.dbpedia.org/resource/மார்கோவ்_அமைப்பு dbpedia-tr:Markov chain dbpedia-uk:Markov chain dbpedia-uk:Markov chain http://ur.dbpedia.org/resource/مارکوو_زنجیر dbpedia-vi:Markov chain dbpedia-zh:Markov chain https://global.dbpedia.org/id/hxpe
prov:wasDerivedFrom wikipedia-en:Markov_chain?oldid=1123291087&ns=0
foaf:depiction wiki-commons:Special:FilePath/AAMarkov.jpg wiki-commons:Special:FilePath/Markovkate_01.svg wiki-commons:Special:FilePath/Intensities_vs_transition_probabilities.svg wiki-commons:Special:FilePath/PageRank_with_Markov_Chain.png
foaf:isPrimaryTopicOf wikipedia-en:Markov_chain
is dbo:academicDiscipline of dbr:Michael_Lin_(mathematician)
is dbo:knownFor of dbr:Richard_Tweedie dbr:Andrey_Markov dbr:Albert_Turner_Bharucha-Reid
is dbo:wikiPageDisambiguates of dbr:Chain_(disambiguation) dbr:Markov
is dbo:wikiPageRedirects of dbr:Homogeneous_Markov_chain dbr:Transition_density dbr:Equilibrium_distribution dbr:Markov_chains dbr:Markov_process dbr:Embedded_Markov_chain dbr:Applications_of_Markov_chains dbr:Irreducible_Markov_chain dbr:Markov_Chain dbr:Markov_Process dbr:Markov_text dbr:Markov_text_generators dbr:Transition_probabilities dbr:Transition_probability dbr:Transitional_probability dbr:Markhow_chain dbr:Markoff_Chain dbr:Markoff_chain dbr:Markov-Chain dbr:Markov_Chaining dbr:Markov_Chains dbr:Markov_Processes dbr:Markov_Sequences dbr:Markov_analysis dbr:Markov_predictor dbr:Markov_sequence dbr:Markovian_chain dbr:Markovian_process dbr:Markovian_property dbr:Absorbing_state dbr:Positive_recurrent
is dbo:wikiPageWikiLink of dbr:Cache_replacement_policies dbr:Bayesian_approaches_to_brain_function dbr:Bayesian_inference_in_phylogeny dbr:Beatrice_Meini dbr:Preload_(software) dbr:Robert_Marc_Mazo dbr:Eliane_R._Rodrigues dbr:Entropy_estimation dbr:Entropy_rate dbr:List_of_Wayne_State_University_people dbr:Metropolis–Hastings_algorithm dbr:Milstein_method dbr:Monte_Carlo_molecular_modeling dbr:N-gram dbr:Nearly_completely_decomposable_Markov_chain dbr:M/G/1_queue dbr:Nielsen_transformation dbr:Parody_generator dbr:Principles_of_Model_Checking dbr:Probabilistic_automaton dbr:Product-form_solution dbr:Battle_Mountain_(Virginia) dbr:Bessel_process dbr:Bible_code dbr:Detailed_balance dbr:Algorithmic_information_theory dbr:Alistair_Sinclair dbr:Allan_Sly_(mathematician) dbr:Aperiodic_graph dbr:Applied_probability dbr:Howard_Wainer dbr:Biased_random_walk_on_a_graph dbr:List_of_Doctors_characters_(2020) dbr:List_of_Iowa_State_University_alumni dbr:RiTa dbr:Richard_Tweedie dbr:Cyclic_succession dbr:Vivek_Borkar dbr:David_Williams_(mathematician) dbr:DeGroot_learning dbr:Decision_tree dbr:Degree-preserving_randomization dbr:Dependability_state_model dbr:Deterioration_modeling dbr:Deterministic_system dbr:Donald_Richards_(statistician) dbr:Doubly_stochastic_matrix dbr:Dynamic_discrete_choice dbr:Inferring_horizontal_gene_transfer dbr:Invariant_measure dbr:J._Laurie_Snell dbr:Lindblad dbr:List_of_mathematicians,_physicians,_an...sts_educated_at_Jesus_College,_Oxford dbr:List_of_named_matrices dbr:List_of_probabilistic_proofs_of_non-probabilistic_theorems dbr:List_of_probability_topics dbr:Telegraph_process dbr:Weighted_automaton dbr:Computing_the_permanent dbr:Conductance_(graph) dbr:Crispin_Nash-Williams dbr:Ancestral_reconstruction dbr:Mathematical_analysis dbr:Mathematical_models_of_social_learning dbr:Matrix_(mathematics) dbr:Cheminformatics dbr:Gaussian_free_field dbr:GeneMark dbr:Generalized_distributive_law dbr:Operations_management dbr:Mixture_model dbr:Risk_of_ruin dbr:Quantum_Markov_chain dbr:Quantum_finite_automaton dbr:Quantum_graph dbr:Quasi-birth–death_process dbr:SALSA_algorithm dbr:Social_cognitive_optimization dbr:Umbrella_sampling dbr:Variable-order_Bayesian_network dbr:Chung_Kai-lai dbr:Eigenvalues_and_eigenvectors dbr:Elliott_Waters_Montroll dbr:Game_theory dbr:Gareth_Roberts_(statistician) dbr:Genetic_algorithm dbr:George_Judge dbr:Glossary_of_artificial_intelligence dbr:Google_matrix dbr:Monad_(functional_programming) dbr:Monte_Carlo_method dbr:Concepts_and_Techniques_in_Modern_Geography dbr:Contextual_image_classification dbr:Dana_Randall dbr:Ergodicity dbr:Lagrangian_Ocean_Analysis dbr:Martingale_representation_theorem dbr:Homogeneous_Markov_chain dbr:Ornstein_isomorphism_theorem dbr:Transition_density dbr:1906_in_science dbr:Andrey_Markov dbr:Arif_Zaman dbr:Baum–Welch_algorithm dbr:Bernoulli_scheme dbr:Lingua_Ignota_(musician) dbr:Simulated_annealing dbr:Stanislav_Molchanov dbr:Step_detection dbr:Stochastic dbr:Stochastic_matrix dbr:Claus_Wellenreuther dbr:Comparison_of_top_chess_players_throughout_history dbr:Feller_process dbr:Hamiltonian_Monte_Carlo dbr:Harlan_Mills dbr:Harris_chain dbr:Leslie_matrix dbr:Oceanic_basin dbr:PL_(complexity) dbr:Parrondo's_paradox dbr:Petri_net dbr:Point_accepted_mutation dbr:Machine_learning_in_bioinformatics dbr:Magnetic_Tower_of_Hanoi dbr:Mark_Jerrum dbr:Mark_V._Shaney dbr:Markov_Chains_and_Mixing_Times dbr:Markov_chain_approximation_method dbr:Markov_chain_central_limit_theorem dbr:Markov_chain_geostatistics dbr:Markov_chain_tree_theorem dbr:Markov_chains_on_a_measurable_state_space dbr:Markov_information_source dbr:Markov_model dbr:Markov_property dbr:Markov_renewal_process dbr:Markov_reward_model dbr:Markovian_discrimination dbr:Matrix_analytic_method dbr:Maximal_entropy_random_walk dbr:Maximum-entropy_Markov_model dbr:Measure-preserving_dynamical_system dbr:Viterbi_algorithm dbr:Additive_Markov_chain dbr:Travelling_salesman_problem dbr:Data_processing_inequality dbr:W._K._Hastings dbr:William_Feller dbr:Dissociated_press dbr:G/M/1_queue dbr:Gambler's_ruin dbr:Gittins_index dbr:H_I_region dbr:Ionescu-Tulcea_theorem dbr:Irreducibility_(mathematics) dbr:Jason_P._Miller dbr:Julian_Keilson dbr:July_1922 dbr:Large_deviations_theory dbr:Laurent_Saloff-Coste dbr:List_of_African-American_inventors_and_scientists dbr:Long-tail_traffic dbr:Stationary_distribution dbr:7z dbr:A._Jamie_Cuticchia dbr:ARP4761 dbr:Albert_Turner_Bharucha-Reid dbr:Aleatoric_music dbr:4th_and_26 dbr:Dril dbr:Edgar_Gilbert dbr:Ergodic_theory dbr:Eugene_Dynkin dbr:Exponentiation dbr:Felix_Kübler dbr:Financial_correlation dbr:Fixed-point_iteration dbr:Fixed_point_(mathematics) dbr:Balance_equation dbr:Banner_blindness dbr:Nikolay_Bogolyubov dbr:Numbers_(season_1) dbr:Numbers_(season_2) dbr:Numerical_analysis dbr:PageRank dbr:Cheeger_bound dbr:Chvátal–Sankoff_constants dbr:Difference_Equations:_From_Rabbits_to_Chaos dbr:Diffusion_map dbr:Diffusion_model dbr:Discrete_Poisson_equation dbr:Discrete_event_dynamic_system dbr:Discrete_phase-type_distribution dbr:Fluid_limit dbr:Fork–join_queue dbr:Graph_dynamical_system dbr:Ising_model dbr:Equilibrium_distribution dbr:Kalman_filter dbr:Kemeny's_constant dbr:Kolmogorov's_criterion dbr:Kolmogorov_extension_theorem dbr:Leimkuhler–Matthews_method dbr:Length_of_stay dbr:Multi-compartment_model dbr:List_of_Russian_mathematicians dbr:List_of_Russian_scientists dbr:List_of_Sigma_Xi_members dbr:Perron–Frobenius_theorem dbr:PRISM_model_checker dbr:Recurrent_neural_network dbr:Rock_paper_scissors dbr:Speech_recognition dbr:Time_reversibility dbr:Hi_Ho!_Cherry-O dbr:Iterated_function dbr:Jacques_Neveu dbr:Jan_Hoem dbr:Ted_Harris_(mathematician) dbr:Coupling_from_the_past dbr:The_Illuminatus!_Trilogy dbr:Hunt_process dbr:Hydrological_model dbr:Jim_Propp dbr:Marginal_stability dbr:María_Emilia_Caballero dbr:Tacticity dbr:Technology_adoption_life_cycle dbr:Potential_theory dbr:Social_navigation dbr:Artificial_neural_network dbr:Absorbing_Markov_chain dbr:John_G._Kemeny dbr:Keith_C._Clarke dbr:Laplace_transform dbr:Laurent-Emmanuel_Calvet dbr:Birth–death_process dbr:Black–Scholes_equation dbr:Surveillance_of_Partially_Observable_Systems dbr:Coarse_space_(numerical_analysis) dbr:Edge-preserving_smoothing dbr:EigenTrust dbr:Hidden_Markov_random_field dbr:Transition_matrix dbr:Tree_diagram_(probability_theory) dbr:Missing_data dbr:Models_of_DNA_evolution dbr:Reconfiguration dbr:Regenerative_process dbr:BIO-LGCA dbr:Markov_chain_mixing_time dbr:Markov_chains dbr:Markov_process dbr:Marshall_Rosenbluth dbr:Borel_right_process dbr:Bulgarian_solitaire dbr:Burst_error dbr:Source_attribution dbr:Greek_letters_used_in_mathematics,_science,_and_engineering dbr:Embedded_Markov_chain dbr:Applications_of_Markov_chains dbr:Iannis_Xenakis dbr:Icon_(programming_language) dbr:Impro-Visor dbr:Michael_Lin_(mathematician) dbr:Michael_Plank dbr:Optional_stopping_theorem dbr:Catalog_of_articles_in_probability_theory dbr:Catherine_Greenhill dbr:Random_walk dbr:Chain_reaction dbr:Chapman–Kolmogorov_equation dbr:Shing-Tung_Yau dbr:Chain_(disambiguation) dbr:Twitter_bot dbr:Lyapunov_function dbr:MMAP dbr:Markov dbr:Markov_chain_Monte_Carlo dbr:Markov_decision_process dbr:Markov_random_field dbr:Markov_switching_multifractal dbr:Markovian dbr:Markovian_Parallax_Denigrate dbr:Martingale_(probability_theory) dbr:Matrix_product_state dbr:Ryszard_Syski dbr:System_on_a_chip dbr:Word_salad dbr:Semantic_analysis_(machine_learning) dbr:Uniformization_(probability_theory) dbr:Variable-order_Markov_model dbr:Workflow dbr:Tutte_polynomial dbr:Voter_model dbr:Sarah_Rudd dbr:Usenet_personality dbr:Euler–Maruyama_method dbr:FKG_inequality
is foaf:primaryTopic of wikipedia-en:Markov_chain