Markov property (original) (raw)

About DBpedia

خاصية ماركوف هي خاصية لعملية تصادفية ليس لها ذاكرة. سميت هذه الخاصية على اسم الرياضياتي الروسي آندريه ماركوف. يقال عن عملية تصادفية ما بأن لها خاصية ماركوف إن كان التوزع الاحتمالي المشروط للحالات المستقبلية للعملية يعتمد فقط على حالتها الحالية، وليس على سلسلة الأحداث التي سبقت ذلك. يطلق اسم عملية ماركوف عن العملية التي لها خاصية ماركوف. يوسع مفهوم حقل ماركوف العشوائي هذه الخاصية إلى بعدين أو أكثر أو إلى أكثر من متغير معرفة على شبكة مترابطة من العناصر.

thumbnail

Property Value
dbo:abstract La propietat de Màrkov defineix que una cadena de Màrkov es pot caracteritzar per la probabilitat d'anar a l'estat n+1 condicionada al fet que abans siguem a l'estat nn: Que és la probabilitat de transició del procés. La propietat de les cadenes de Màrkov és que les transicions entre els estats, només pot produir-se entre estats veïns. Només es pot arribar a l'estat i des de l'estat i-1 o bé de i+1. Aquest tipus d'estadístiques se sol trobar en la distribució exponencial, la funció de densitat de probabilitat de la qual s'expressa així: Comprovem que un procés definit per aquesta fdp no té memòria. La probabilitat que hi haja una transició entre 0 i un temps t qualsevol és: Si integrem, obtenim: Ara anem a calcular la probabilitat per al mateix interval t, però amb un instant d'inici diferent t0. Calculem la probabilitat de tindre una transició en l'interval t (de t0 fins a t0+t) condicionat al fet que abans de t0 no hi ha hagut cap transició: Substituint per les fdp i substituint: Amb la qual cosa queda demostrat que la probabilitat de tindre una transició en un estat no depèn del temps anterior. (ca) خاصية ماركوف هي خاصية لعملية تصادفية ليس لها ذاكرة. سميت هذه الخاصية على اسم الرياضياتي الروسي آندريه ماركوف. يقال عن عملية تصادفية ما بأن لها خاصية ماركوف إن كان التوزع الاحتمالي المشروط للحالات المستقبلية للعملية يعتمد فقط على حالتها الحالية، وليس على سلسلة الأحداث التي سبقت ذلك. يطلق اسم عملية ماركوف عن العملية التي لها خاصية ماركوف. يوسع مفهوم حقل ماركوف العشوائي هذه الخاصية إلى بعدين أو أكثر أو إلى أكثر من متغير معرفة على شبكة مترابطة من العناصر. (ar) En teoría de probabilidad y estadística, la propiedad de Markov se refiere a la propiedad de ciertos procesos estocásticos por la cual "carecen de memoria", lo que significa que la distribución de probabilidad del valor futuro de una variable aleatoria depende únicamente de su valor presente, siendo independiente de la historia de dicha variable.​ A los procesos que satisfacen esta condición se les conoce como procesos de Márkov​Debe su nombre al matemático ruso Andréi Márkov, quien desarrolló la teoría de las cadenas de Márkov.​ (es) In probability theory and statistics, the term Markov property refers to the memoryless property of a stochastic process. It is named after the Russian mathematician Andrey Markov. The term strong Markov property is similar to the Markov property, except that the meaning of "present" is defined in terms of a random variable known as a stopping time. The term Markov assumption is used to describe a model where the Markov assumption is assumed to hold, such as a hidden Markov model. A Markov random field extends this property to two or more dimensions or to random variables defined for an interconnected network of items. An example of a model for such a field is the Ising model. A discrete-time stochastic process satisfying the Markov property is known as a Markov chain. (en) En probabilité, un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donnés les états passés et l'état présent, ne dépend en fait que de l'état présent et non pas des états passés (absence de « mémoire »). Un processus qui possède cette propriété est appelé processus de Markov. Pour de tels processus, la meilleure prévision qu'on puisse faire du futur, connaissant le passé et le présent, est identique à la meilleure prévision qu'on puisse faire du futur, connaissant uniquement le présent : si on connait le présent, la connaissance du passé n'apporte pas d'information supplémentaire utile pour la prédiction du futur. (fr) 확률론에서 마르코프 확률 과정(Марков確率過程, 영어: Markov stochastic process)는 현재에 대한 조건부로 과거와 미래가 서로 독립인 확률 과정이다. 즉, 마르코프 확률 과정은 ‘기억하지 않는’ 확률 과정이다. 마르코프 확률 과정에서 미래를 유추하려 한다면, 오직 현재의 값만이 쓸모가 있으며, 과거의 값들은 아무 추가 정보를 제공하지 못한다. (ko) マルコフ性(マルコフせい、英: Markov property)とは、確率論における確率過程の持つ特性の一種で、その過程の将来状態の条件付き確率分布が、現在状態のみに依存し、過去のいかなる状態にも依存しない特性を持つことをいう。すなわち、過去の状態が与えられたとき、現在の状態(過程の経路)は条件付き独立である。ロシア人数学者のアンドレイ・マルコフにちなんで名付けられた。 マルコフ性のある確率過程をマルコフ過程と呼び、主に以下のような種類がある。 * マルコフ連鎖(状態変数の取り得る値が離散的なもの) * 連続時間マルコフ過程 数学的に記せば、確率過程 X(t)、t > 0 がマルコフ性を持つ場合、次が成り立つ。 以下が成り立つマルコフ過程を「斉時的; time-homogeneous」であるという。 そうでない場合は「非斉時的; time-inhomogeneous」であるという。斉時的マルコフ過程は一般に非斉時的過程よりも単純であり、マルコフ過程の中でも最も重要なクラスである。 実際にはマルコフ過程でないものを「現在」状態や「将来」状態の概念を拡張することでマルコフ過程的に表現することもある。例えば、X が非マルコフ過程であるとする。ここで、X における状態間の時間間隔を過程 Y の各状態とする。これを数式で表すと次のようになる。 Y がマルコフ性を持つ場合、それは X のマルコフ的表現となる。この場合 X を二階マルコフ過程(second-order Markov process)と呼ぶ。高階マルコフ過程も同様に定義される。 非マルコフ過程のマルコフ的表現の例として、移動平均を時系列に並べた移動平均線がある。 マルコフ過程で最も知られているのはマルコフ連鎖だが、他にも様々な過程があり、ブラウン運動も近似的にはマルコフ性を有する。 (ja) Nella teoria della probabilità, la proprietà di Markov per un processo stocastico consiste nella dipendenza esclusiva dallo stato presente della variabile casuale dei futuri stati, e per esempio non dagli stati passati (la storia o percorso del processo) ma soltanto dall'ultima osservazione.Un processo con la proprietà di Markov è chiamato processo markoviano. In matematica, se X(t), t > 0, è un processo stocastico, la proprietà di Markov dice che I processi di Markov sono tipicamente detti omogenei se non c'è dipendenza da t, ovvero altrimenti sono detti non omogenei. I processi markoviani omogenei, solitamente più semplici di quelli non omogenei, formano la classe più importante dei processi markoviani. In alcuni casi, processi che paiono non markoviani possono avere comunque rappresentazioni markoviane, costruite espandendo il concetto dello stato corrente e di quello futuro. Posto che X sia un processo non markoviano, definiamo un processo Y tale che ogni stato di Y rappresenti un intervallo di tempo di X: Se Y ha la proprietà di Markov, è una rappresentazione markoviana di X. In tal caso, X è anche detto processo markoviano di secondo ordine. I processi markoviani di più alto ordine sono definiti in modo analogo. Alcuni esempi possono aiutare a comprendere meglio in cosa consiste la proprietà di Markov. * Un esempio di processo non markoviano con una rappresentazione markoviana è una serie temporale a media mobile. * Alcuni processi come il moto browniano sono markoviani. * Si supponga di aver misurato la temperatura una volta al giorno per un totale di 90 misurazioni e di voler prevedere quale valore assumerà nel giorno seguente. Ci si rende facilmente conto che le misurazioni effettuate nei 90 giorni precedenti sono essenziali ai fini della previsione, perché da queste è possibile individuare se l'andamento della temperatura è crescente o decrescente e quindi facilitare la previsione del giorno seguente: in questo caso la storia passata (cioè le predette 90 misurazioni) è tutta importante ai fini della previsione futura e pertanto non gode della proprietà di Markov. (it) Własność Markowa – własność procesów stochastycznych polegająca na tym, że warunkowe rozkłady prawdopodobieństwa przyszłych stanów procesu są zdeterminowane wyłącznie przez jego bieżący stan, bez względu na przeszłość. Ściślej: przyszłe stany procesu są od stanów przeszłych. Procesy stochastyczne, które posiadają własność Markowa, nazywamy procesami Markowa. Typowym przykładem w fizyce jest proces opisujący ruchy Browna. (pl) I sannolikhetslära är Markovegenskapen för en stokastisk process egenskapen att den betingade sannolikhetsfördelningen för tillståndet vid en tidpunkt i framtiden, givet det nuvarande tillståndet och alla tidigare tillstånd, är oberoende av de tidigare tillstånden. Mer löst kan sägas att om väderprognoser följde Markovegenskapen så skulle väderprognosen för morgondagen bara bygga på vädret just nu och inte på vädret för en timme sen eller vid någon annan tidigare tidpunkt. En stokastisk process som har Markovegenskapen brukar kallas Markovkedja. (sv) Em teoria da probabilidades e estatística, o termo propriedade de Markov ou propriedade markoviana se refere à propriedade de perda de memória de um processo estocástico. Tem este nome devido ao matemático russo Andrei Markov. Um processo estocástico tem a propriedade de Markov se a distribuição de probabilidade condicional de estados futuros do processo (condicional tanto em estados passados, como presentes) depende apenas do estado presente, não da sequência de eventos que o precedeu. Um processo com esta propriedade é chamado de processo de Markov. O termo propriedade forte de Markov tem significado semelhante à propriedade de Markov propriamente dita, exceto pelo fato de que o significado de "presente" é definido em termo de uma variável aleatória conhecida como tempo de espera. O termo pressuposto de Markov é usado para descrever um modelo em que se pressupõe que a propriedade de Markov se mantém, tal como o modelo oculto de Markov. Um campo aleatório de Markov estende esta propriedade a duas ou mais dimensões ou a variáveis aleatórias definidas para uma rede interconectada de itens. Um exemplo de um modelo para um campo como este é o modelo Ising. Um processo estocástico de tempo discreto que satisfaça a propriedade de Markov é conhecido como cadeia de Markov. (pt) У теорії ймовірностей та статистиці термін ма́рковська власти́вість (англ. Markov property) відноситься до властивості в стохастичного процесу. Його названо на честь російського математика Андрія Маркова. Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану, а не від послідовності подій, яка передувала йому. Процес із такою властивістю називається марковським процесом (англ. Markov process). Термін си́льна ма́рковська власти́вість (англ. strong Markov property) подібний до марковської властивості, за винятком того, що розуміння «поточного» визначається в термінах випадкової величини, відомої як момент зупину. Обидва терміни «марковська властивість» та «сильна марковська властивість» застосовувалися у зв'язку з особливою властивістю «відсутності пам'яті» експоненційного розподілу. Термін ма́рковське припу́щення (англ. Markov assumption) використовується для опису моделі, в якій передбачається дотримання марковської властивості, наприклад, прихованої марковської моделі. Марковське випадкове поле (англ. Markov random field) розширює цю властивість на два або більше вимірів, або на випадкові величини, визначені для мережі взаємозв'язаних елементів. Прикладом моделі такого поля є модель Ізінга. Стохастичний процес , який задовольняє марковську властивість, відомий як марковський ланцюг. (uk) 马尔可夫性质(英語:Markov property)是概率论中的一个概念,因為俄國數學家安德雷·馬可夫得名。当一个随机过程在给定现在状态及所有过去状态情况下,其未来状态的条件概率分布仅依赖于当前状态;换句话说,在给定现在状态时,它与过去状态(即该过程的历史路径)是条件独立的,那么此随机过程即具有马尔可夫性质。具有马尔可夫性质的过程通常称之为马尔可夫过程。 数学上,如果为一个随机过程,则马尔可夫性质就是指 马尔可夫过程通常称其为(时间)齐次,如果满足 除此之外则被称为是(时间)非齐次的。齐次马尔可夫过程通常比非齐次的简单,构成了最重要的一类马尔可夫过程。 某些情况下,明显的也可以通过扩展“现在”和“未来”状态的概念来构造一个马尔可夫表示。设为一个非马尔可夫过程。我们就可以定义一个新的过程,使得每一个的状态表示的一个时间区间上的状态,用数学方法来表示,即, 如果具有马尔可夫性质,则它就是的一个马尔可夫表示。在这个情况下,也可以被称为是二阶马尔可夫过程。更高阶马尔可夫过程也可类似地来定义。 具有马尔可夫表示的非马尔可夫过程的例子,例如有移动平均时间序列。 最有名的马尔可夫过程为马尔可夫链,但不少其他的过程,包括布朗运动也是马尔可夫过程。 (zh) Марковское свойство — в теории вероятностей и статистике термин, который относится к памяти случайного процесса. Это свойство было названо в честь русского математика Андрея Маркова. Стохастический процесс обладает марковским свойством, если условное распределение вероятностей будущих состояний процесса зависит только от нынешнего состояния, а не от последовательности событий, которые предшествовали этому. Процесс, обладающий этим свойством, называется марковским процессом. Термин «строгое марковское свойство» похож на «марковское свойство», за исключением того, что понятие «настоящего состояния процесса» заменяется на марковский момент времени. Оба термина, «свойства Маркова» и «строгого свойства Маркова» были использованы в связи с особым свойством экспоненциального распределения — «отсутствие памяти». Для процессов с дискретным временем с марковским свойством, см. цепь Маркова. (ru)
dbo:thumbnail wiki-commons:Special:FilePath/Wiener_process_3d.png?width=300
dbo:wikiPageID 306422 (xsd:integer)
dbo:wikiPageLength 8132 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1084143539 (xsd:integer)
dbo:wikiPageWikiLink dbr:Bayesian_statistics dbr:Probability_space dbr:Probabilistic_forecasting dbr:Intractability_(complexity) dbr:Predictive_modelling dbr:Russia dbr:Conditional_probability_distribution dbr:Andrey_Markov dbr:Sigma-algebra dbr:Statistics dbr:Markov_model dbr:Mathematician dbr:Measurable_space dbr:Adapted_process dbr:Totally_ordered dbr:Causal_Markov_condition dbr:Ising_model dbr:Probability_theory dbc:Markov_models dbc:Markov_processes dbr:Hidden_Markov_model dbr:Markov_process dbr:Filtration_(probability_theory) dbr:Memoryless dbr:Hysteresis dbr:Brownian_motion dbr:Chapman–Kolmogorov_equation dbr:Markov_blanket dbr:Markov_chain dbr:Markov_chain_Monte_Carlo dbr:Markov_decision_process dbr:Markov_random_field dbr:Natural_filtration dbr:Stochastic_process dbr:Stopping_time dbr:File:Wiener_process_3d.png
dbp:wikiPageUsesTemplate dbt:Main dbt:Reflist dbt:Short_description
dcterms:subject dbc:Markov_models dbc:Markov_processes
rdf:type yago:WikicatMarkovProcesses yago:WikicatStochasticProcesses yago:Abstraction100002137 yago:Act100030358 yago:Activity100407535 yago:Cognition100023271 yago:Concept105835747 yago:Content105809192 yago:Event100029378 yago:Hypothesis105888929 yago:Idea105833840 yago:Model105890249 yago:Procedure101023820 yago:PsychologicalFeature100023100 yago:YagoPermanentlyLocatedEntity yago:StochasticProcess113561896
rdfs:comment خاصية ماركوف هي خاصية لعملية تصادفية ليس لها ذاكرة. سميت هذه الخاصية على اسم الرياضياتي الروسي آندريه ماركوف. يقال عن عملية تصادفية ما بأن لها خاصية ماركوف إن كان التوزع الاحتمالي المشروط للحالات المستقبلية للعملية يعتمد فقط على حالتها الحالية، وليس على سلسلة الأحداث التي سبقت ذلك. يطلق اسم عملية ماركوف عن العملية التي لها خاصية ماركوف. يوسع مفهوم حقل ماركوف العشوائي هذه الخاصية إلى بعدين أو أكثر أو إلى أكثر من متغير معرفة على شبكة مترابطة من العناصر. (ar) En teoría de probabilidad y estadística, la propiedad de Markov se refiere a la propiedad de ciertos procesos estocásticos por la cual "carecen de memoria", lo que significa que la distribución de probabilidad del valor futuro de una variable aleatoria depende únicamente de su valor presente, siendo independiente de la historia de dicha variable.​ A los procesos que satisfacen esta condición se les conoce como procesos de Márkov​Debe su nombre al matemático ruso Andréi Márkov, quien desarrolló la teoría de las cadenas de Márkov.​ (es) En probabilité, un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donnés les états passés et l'état présent, ne dépend en fait que de l'état présent et non pas des états passés (absence de « mémoire »). Un processus qui possède cette propriété est appelé processus de Markov. Pour de tels processus, la meilleure prévision qu'on puisse faire du futur, connaissant le passé et le présent, est identique à la meilleure prévision qu'on puisse faire du futur, connaissant uniquement le présent : si on connait le présent, la connaissance du passé n'apporte pas d'information supplémentaire utile pour la prédiction du futur. (fr) 확률론에서 마르코프 확률 과정(Марков確率過程, 영어: Markov stochastic process)는 현재에 대한 조건부로 과거와 미래가 서로 독립인 확률 과정이다. 즉, 마르코프 확률 과정은 ‘기억하지 않는’ 확률 과정이다. 마르코프 확률 과정에서 미래를 유추하려 한다면, 오직 현재의 값만이 쓸모가 있으며, 과거의 값들은 아무 추가 정보를 제공하지 못한다. (ko) Własność Markowa – własność procesów stochastycznych polegająca na tym, że warunkowe rozkłady prawdopodobieństwa przyszłych stanów procesu są zdeterminowane wyłącznie przez jego bieżący stan, bez względu na przeszłość. Ściślej: przyszłe stany procesu są od stanów przeszłych. Procesy stochastyczne, które posiadają własność Markowa, nazywamy procesami Markowa. Typowym przykładem w fizyce jest proces opisujący ruchy Browna. (pl) I sannolikhetslära är Markovegenskapen för en stokastisk process egenskapen att den betingade sannolikhetsfördelningen för tillståndet vid en tidpunkt i framtiden, givet det nuvarande tillståndet och alla tidigare tillstånd, är oberoende av de tidigare tillstånden. Mer löst kan sägas att om väderprognoser följde Markovegenskapen så skulle väderprognosen för morgondagen bara bygga på vädret just nu och inte på vädret för en timme sen eller vid någon annan tidigare tidpunkt. En stokastisk process som har Markovegenskapen brukar kallas Markovkedja. (sv) 马尔可夫性质(英語:Markov property)是概率论中的一个概念,因為俄國數學家安德雷·馬可夫得名。当一个随机过程在给定现在状态及所有过去状态情况下,其未来状态的条件概率分布仅依赖于当前状态;换句话说,在给定现在状态时,它与过去状态(即该过程的历史路径)是条件独立的,那么此随机过程即具有马尔可夫性质。具有马尔可夫性质的过程通常称之为马尔可夫过程。 数学上,如果为一个随机过程,则马尔可夫性质就是指 马尔可夫过程通常称其为(时间)齐次,如果满足 除此之外则被称为是(时间)非齐次的。齐次马尔可夫过程通常比非齐次的简单,构成了最重要的一类马尔可夫过程。 某些情况下,明显的也可以通过扩展“现在”和“未来”状态的概念来构造一个马尔可夫表示。设为一个非马尔可夫过程。我们就可以定义一个新的过程,使得每一个的状态表示的一个时间区间上的状态,用数学方法来表示,即, 如果具有马尔可夫性质,则它就是的一个马尔可夫表示。在这个情况下,也可以被称为是二阶马尔可夫过程。更高阶马尔可夫过程也可类似地来定义。 具有马尔可夫表示的非马尔可夫过程的例子,例如有移动平均时间序列。 最有名的马尔可夫过程为马尔可夫链,但不少其他的过程,包括布朗运动也是马尔可夫过程。 (zh) La propietat de Màrkov defineix que una cadena de Màrkov es pot caracteritzar per la probabilitat d'anar a l'estat n+1 condicionada al fet que abans siguem a l'estat nn: Que és la probabilitat de transició del procés. La propietat de les cadenes de Màrkov és que les transicions entre els estats, només pot produir-se entre estats veïns. Només es pot arribar a l'estat i des de l'estat i-1 o bé de i+1. Aquest tipus d'estadístiques se sol trobar en la distribució exponencial, la funció de densitat de probabilitat de la qual s'expressa així: Si integrem, obtenim: Substituint per les fdp i substituint: (ca) In probability theory and statistics, the term Markov property refers to the memoryless property of a stochastic process. It is named after the Russian mathematician Andrey Markov. The term strong Markov property is similar to the Markov property, except that the meaning of "present" is defined in terms of a random variable known as a stopping time. The term Markov assumption is used to describe a model where the Markov assumption is assumed to hold, such as a hidden Markov model. A discrete-time stochastic process satisfying the Markov property is known as a Markov chain. (en) Nella teoria della probabilità, la proprietà di Markov per un processo stocastico consiste nella dipendenza esclusiva dallo stato presente della variabile casuale dei futuri stati, e per esempio non dagli stati passati (la storia o percorso del processo) ma soltanto dall'ultima osservazione.Un processo con la proprietà di Markov è chiamato processo markoviano. In matematica, se X(t), t > 0, è un processo stocastico, la proprietà di Markov dice che I processi di Markov sono tipicamente detti omogenei se non c'è dipendenza da t, ovvero (it) マルコフ性(マルコフせい、英: Markov property)とは、確率論における確率過程の持つ特性の一種で、その過程の将来状態の条件付き確率分布が、現在状態のみに依存し、過去のいかなる状態にも依存しない特性を持つことをいう。すなわち、過去の状態が与えられたとき、現在の状態(過程の経路)は条件付き独立である。ロシア人数学者のアンドレイ・マルコフにちなんで名付けられた。 マルコフ性のある確率過程をマルコフ過程と呼び、主に以下のような種類がある。 * マルコフ連鎖(状態変数の取り得る値が離散的なもの) * 連続時間マルコフ過程 数学的に記せば、確率過程 X(t)、t > 0 がマルコフ性を持つ場合、次が成り立つ。 以下が成り立つマルコフ過程を「斉時的; time-homogeneous」であるという。 そうでない場合は「非斉時的; time-inhomogeneous」であるという。斉時的マルコフ過程は一般に非斉時的過程よりも単純であり、マルコフ過程の中でも最も重要なクラスである。 実際にはマルコフ過程でないものを「現在」状態や「将来」状態の概念を拡張することでマルコフ過程的に表現することもある。例えば、X が非マルコフ過程であるとする。ここで、X における状態間の時間間隔を過程 Y の各状態とする。これを数式で表すと次のようになる。 (ja) Em teoria da probabilidades e estatística, o termo propriedade de Markov ou propriedade markoviana se refere à propriedade de perda de memória de um processo estocástico. Tem este nome devido ao matemático russo Andrei Markov. O termo pressuposto de Markov é usado para descrever um modelo em que se pressupõe que a propriedade de Markov se mantém, tal como o modelo oculto de Markov. Um processo estocástico de tempo discreto que satisfaça a propriedade de Markov é conhecido como cadeia de Markov. (pt) Марковское свойство — в теории вероятностей и статистике термин, который относится к памяти случайного процесса. Это свойство было названо в честь русского математика Андрея Маркова. Стохастический процесс обладает марковским свойством, если условное распределение вероятностей будущих состояний процесса зависит только от нынешнего состояния, а не от последовательности событий, которые предшествовали этому. Процесс, обладающий этим свойством, называется марковским процессом. Термин «строгое марковское свойство» похож на «марковское свойство», за исключением того, что понятие «настоящего состояния процесса» заменяется на марковский момент времени. Оба термина, «свойства Маркова» и «строгого свойства Маркова» были использованы в связи с особым свойством экспоненциального распределения — «отсу (ru) У теорії ймовірностей та статистиці термін ма́рковська власти́вість (англ. Markov property) відноситься до властивості в стохастичного процесу. Його названо на честь російського математика Андрія Маркова. Термін ма́рковське припу́щення (англ. Markov assumption) використовується для опису моделі, в якій передбачається дотримання марковської властивості, наприклад, прихованої марковської моделі. Стохастичний процес , який задовольняє марковську властивість, відомий як марковський ланцюг. (uk)
rdfs:label خاصية ماركوف (ar) Propietat de Màrkov (ca) Markow-Eigenschaft (de) Propiedad de Márkov (es) Proprietà di Markov (it) Propriété de Markov (fr) マルコフ性 (ja) Markov property (en) 마르코프 확률 과정 (ko) Własność Markowa (pl) Propriedade de Markov (pt) Марковское свойство (ru) Markovegenskapen (sv) Марковська властивість (uk) 马尔可夫性质 (zh)
owl:sameAs freebase:Markov property wikidata:Markov property dbpedia-af:Markov property dbpedia-ar:Markov property dbpedia-bg:Markov property dbpedia-ca:Markov property dbpedia-de:Markov property dbpedia-es:Markov property dbpedia-fa:Markov property dbpedia-fr:Markov property dbpedia-hr:Markov property dbpedia-it:Markov property dbpedia-ja:Markov property dbpedia-ko:Markov property dbpedia-pl:Markov property dbpedia-pt:Markov property dbpedia-ru:Markov property http://su.dbpedia.org/resource/Markov_property dbpedia-sv:Markov property dbpedia-uk:Markov property dbpedia-vi:Markov property dbpedia-zh:Markov property https://global.dbpedia.org/id/huNL yago-res:Markov property
prov:wasDerivedFrom wikipedia-en:Markov_property?oldid=1084143539&ns=0
foaf:depiction wiki-commons:Special:FilePath/Wiener_process_3d.png
foaf:isPrimaryTopicOf wikipedia-en:Markov_property
is dbo:wikiPageRedirects of dbr:Markov_Property dbr:Strong_Markov_property dbr:Markov-type_property dbr:Markov_assumption dbr:Markov_condition
is dbo:wikiPageWikiLink of dbr:Quantum_stochastic_calculus dbr:Lévy_flight dbr:State_function dbr:Hopfield_network dbr:List_of_probability_topics dbr:Conditional_random_field dbr:Continuous-time_Markov_chain dbr:Memorylessness dbr:Cheyette_model dbr:Quantum_master_equation dbr:Quantum_thermodynamics dbr:Ensemble_(mathematical_physics) dbr:Gibbs_measure dbr:Andrey_Markov dbr:Link_grammar dbr:Blumenthal's_zero–one_law dbr:Partition_function_(mathematics) dbr:Markov_chain_central_limit_theorem dbr:Markov_model dbr:Markov_partition dbr:Markov_renewal_process dbr:Heath–Jarrow–Morton_framework dbr:Language_model dbr:Open_quantum_system dbr:Random_field dbr:Speech_processing dbr:Fermi's_golden_rule dbr:Dirichlet_form dbr:Discrete-time_Markov_chain dbr:Itô_diffusion dbr:List_of_Russian_mathematicians dbr:List_of_Russian_scientists dbr:Renewal_theory dbr:Time_reversibility dbr:Counting_process dbr:Stochastic_Petri_net dbr:AIXI dbr:Birth_process dbr:Hidden_Markov_model dbr:Teletraffic_engineering dbr:Dirac_delta_function dbr:Poisson_point_process dbr:Classical_Wiener_space dbr:Hysteresis dbr:Catalog_of_articles_in_probability_theory dbr:Chapman–Kolmogorov_equation dbr:Markov_chain dbr:Loop-erased_random_walk dbr:Markov_decision_process dbr:Markov_perfect_equilibrium dbr:Markov_random_field dbr:Markovian dbr:Martingale_(probability_theory) dbr:Monte_Carlo_localization dbr:Multi-agent_reinforcement_learning dbr:Satellite_galaxy dbr:Stochastic_differential_equation dbr:Schramm–Loewner_evolution dbr:Slice_sampling dbr:Variable-order_Markov_model dbr:List_of_statistics_articles dbr:List_of_things_named_after_Andrey_Markov dbr:Examples_of_Markov_chains dbr:Telescoping_Markov_chain dbr:List_of_Russian_people dbr:Outline_of_probability dbr:Markov_Property dbr:Stochastic_dynamic_programming dbr:Strong_Markov_property dbr:Markov-type_property dbr:Markov_assumption dbr:Markov_condition
is foaf:primaryTopic of wikipedia-en:Markov_property