Markov chain

http://dbpedia.org/resource/Markov_chain an entity of type: Thing

In der Wahrscheinlichkeitstheorie ist ein Markov-Modell ein stochastisches Modell, das zur Modellierung sich zufällig verändernder Systeme verwendet wird. Es wird angenommen, dass zukünftige Zustände nur vom aktuellen Zustand abhängen, nicht von den Ereignissen, die davor eingetreten sind (d. h. es nimmt die Markov-Eigenschaft an). Im Allgemeinen ermöglicht diese Annahme Schlussfolgerungen und Rechentechniken, die sonst unmöglich wären. Aus diesem Grund ist es in den Bereichen der prädiktiven Modellierung und probabilistischen Prognose wünschenswert, dass ein bestimmtes Modell die Markov-Eigenschaft aufweist. rdf:langString
Η αλυσίδα Μάρκοφ, ή μαρκοβιανή αλυσίδα, που πήρε το όνομα της από τον , είναι ένα μαθηματικό σύστημα που μεταβάλλεται από μια κατάσταση σε μια άλλη, ανάμεσα σε ένα πεπερασμένο αριθμό καταστάσεων. Είναι μια τυχαία διαδικασία που δε διατηρεί μνήμη για τις προηγούμενες μεταβολές: Η επόμενη κατάσταση εξαρτάται μόνο από την τωρινή κατάσταση και σε καμιά περίπτωση από αυτές που προηγήθηκαν. Αυτό το συγκεκριμένο είδος "αμνησίας" ονομάζεται μαρκοβιανή ιδιότητα. Οι Μαρκοβιανές Αλυσίδες έχουν πολλές εφαρμογές ως στατιστικά μοντέλα καθημερινών διαδικασιών. rdf:langString
マルコフ連鎖(マルコフれんさ、英: Markov chain)とは、確率過程の一種であるマルコフ過程のうち、とりうる状態が離散的(有限または可算)なもの(離散状態マルコフ過程)をいう。また特に、時間が離散的なもの(時刻は添え字で表される)を指すことが多い。マルコフ連鎖は、未来の挙動が現在の値だけで決定され、過去の挙動と無関係である(マルコフ性)。各時刻において起こる状態変化(遷移または推移)に関して、マルコフ連鎖は遷移確率が過去の状態によらず、現在の状態のみによる系列である。特に重要な確率過程として、様々な分野に応用される。 rdf:langString
마르코프 모형 또는 마르코프 모델은 확률 모델의 유형이다. rdf:langString
확률론에서 마르코프 연쇄(Марков 連鎖, 영어: Markov chain)는 이산 시간 확률 과정이다. 마르코프 연쇄는 시간에 따른 계의 상태의 변화를 나타낸다. 매 시간마다 계는 상태를 바꾸거나 같은 상태를 유지한다. 상태의 변화를 전이라 한다. 마르코프 성질은 과거와 현재 상태가 주어졌을 때의 미래 상태의 조건부 확률 분포가 과거 상태와는 독립적으로 현재 상태에 의해서만 결정된다는 것을 뜻한다 rdf:langString
Це́пь Ма́ркова — последовательность случайных событий с конечным или счётным числом исходов, где вероятность наступления каждого события зависит только от состояния, достигнутого в предыдущем событии. Характеризуется тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого. Названа в честь А. А. Маркова (старшего), который впервые ввёл это понятие в работе 1906 года. rdf:langString
Em matemática, uma cadeia de Markov (cadeia de Markov em tempo discreto ou DTMC) é um caso particular de processo estocástico com estados discretos (o parâmetro, em geral o tempo, pode ser discreto ou contínuo) com a propriedade de que a distribuição de probabilidade do próximo estado depende apenas do estado atual e não na sequência de eventos que precederam, uma propriedade chamada de Markoviana, chamada assim em homenagem ao matemático Andrei Andreyevich Markov. A definição dessa propriedade, também chamada de memória markoviana, é que os estados anteriores são irrelevantes para a predição dos estados seguintes, desde que o estado atual seja conhecido. Cadeias de Markov têm muitas aplicações como modelos estatísticos de processos do mundo real. rdf:langString
Ланцюг Маркова в математиці це випадковий процес, що задовольняє властивість Маркова і який приймає скінченну чи зліченну кількість значень (станів). Існують ланцюги Маркова як з дискретним так і з неперервним часом. В даній статті розглядається дискретний випадок. rdf:langString
马尔可夫链(英語:Markov chain),又稱離散時間馬可夫鏈(discrete-time Markov chain,縮寫為DTMC),因俄國數學家安德烈·马尔可夫得名,为狀態空間中经过从一个状态到另一个状态的转换的随机过程。该过程要求具备“无记忆”的性质:下一状态的概率分布只能由当前状态决定,在时间序列中它前面的事件均与之无关。这种特定类型的“无记忆性”称作馬可夫性質。马尔科夫链作为实际过程的统计模型具有许多应用。 在马尔可夫链的每一步,系统根据概率分布,可以从一个状态变到另一个状态,也可以保持当前状态。状态的改变叫做转移,与不同的状态改变相关的概率叫做转移概率。随机漫步就是马尔可夫链的例子。随机漫步中每一步的状态是在图形中的点,每一步可以移动到任何一个相邻的点,在这里移动到每一个点的概率都是相同的(无论之前漫步路径是如何的)。 rdf:langString
У теорії ймовірностей, моделі Маркова це стохастичні моделі, які використовуються для моделювання систем, що випадково змінюються, де передбачається, що майбутні стани залежать тільки від поточного стану, а не від послідовності подій, які передували цьому (тобто, вона передбачає властивість Маркова). Як правило, це припущення дозволяє міркування і обчислення з моделлю, яка б в іншому випадку лишилась нерозв'язною. rdf:langString
سلسلة ماركوف (بالإنجليزية: Markov Chain)‏ مصطلح رياضي وهو عبارة عن عملية تصادفية تحمل خاصية ماركوفية. في عملية كهذه، تكهُنُ المستقبل انطلاقا من الحاضر لا يحتاج إلى معرفة الماضي. ولقد أخذت اسم مبتكرها الروسي أندريا ماركوف. سلسلة ماركوف في وقت متقطع هي السلسلة X1, X2, X3,... متكونة من متغيرات عشوائية. مجموعة القيمات الممكنة تدعي فضاء الحالات. وXn تدعى حالة العملية في الآن n. إذا كان توزيع الاحتمال الشرطي لXn+1 على الحالات الفارطة دالة وحده إذن .حيث x هي دالة ما في العملية. المعادلة هذه تعرف بالاحتمال الماركوفي. rdf:langString
Una cadena de Màrkov , que rep el seu nom del matemàtic rus Andrei Màrkov (1856-1922), és una sèrie d'esdeveniments, en la qual la probabilitat que passi un esdeveniment depèn de l'esdeveniment immediat anterior. En efecte, les cadenes d'aquest tipus tenen memòria. "Recorden" l'últim esdeveniment i això condiciona les possibilitats dels esdeveniments futurs. Aquesta dependència de l'esdeveniment anterior distingeix a les cadenes de Màrkov de les sèries d'esdeveniments independents, com tirar una moneda a l'aire o un dau. rdf:langString
Markovův řetězec popisuje obvykle diskrétní náhodný (stochastický či pravděpodobnostní) proces, pro který platí, že pravděpodobnosti přechodu do následujícího stavu závisejí pouze na současném stavu, ne na předchozích stavech. Tato tzv. dovoluje proces znázornit stavovým diagramem, kde z každého stavu (uzlu grafu) vycházejí hrany možných přechodů do dalšího stavu s připsanou pravděpodobností. Markovovy řetězce mají mnoho praktických použití, zejména v informatice, v chemii, v ekonomii i v dalších společenských vědách. rdf:langString
Eine Markow-Kette (englisch Markov chain; auch Markow-Prozess, nach Andrei Andrejewitsch Markow; andere Schreibweisen Markov-Kette, Markoff-Kette, Markof-Kette) ist ein stochastischer Prozess. Ziel bei der Anwendung von Markow-Ketten ist es, Wahrscheinlichkeiten für das Eintreten zukünftiger Ereignisse anzugeben. Eine Markow-Kette ist darüber definiert, dass durch Kenntnis einer nur begrenzten Vorgeschichte ebenso gute Prognosen über die zukünftige Entwicklung möglich sind wie bei Kenntnis der gesamten Vorgeschichte des Prozesses. rdf:langString
En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior. Esta característica de incluir una memoria reciente recibe el nombre de propiedad de Markov en contraste con los eventos independientes que no tienen memoria de ningún evento anterior. En un primer artículo de 1906 A. A. Markov definió la "cadena simple" como "una secuencia infinita x1, x2, ..., xk, xk+1, ..., de variables conectadas de tal modo que xk+1 para cualquier k es independiente de x1, x2, ..., xk−1, en el caso de que xk sea conocida”. Markov llamó a la cadena "homogénea" si la distribución condicional de xk+1 dado xk fuese independiente de k. Ta rdf:langString
Probabilitate-teorian, Markov katea aldi bakoitzeanmultzo diskretu eta finko batekoi egoera batetik j egoera batera aldatzeko pij probabilitate konstanteak dituen prozesu estokastiko bat da,hasiera batean egoera bakoitzean izateko probabilitateak ere zehazten dituena. Nabarmendu behar da egoera jakinbatera aldatzeko probabilitatea aurreko aldiko egoeraren mendean dagoela soilik. Prozesu hauek Andrei Markov matematikariaren izena hartzen dute, bera izan baitzen horiek aztertu zituen lehena. rdf:langString
En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »). Les processus de Markov portent le nom de leur inventeur, Andreï Markov. rdf:langString
A Markov chain or Markov process is a stochastic model describing a sequence of possible events in which the probability of each event depends only on the state attained in the previous event. Informally, this may be thought of as, "What happens next depends only on the state of affairs now." A countably infinite sequence, in which the chain moves state at discrete time steps, gives a discrete-time Markov chain (DTMC). A continuous-time process is called a continuous-time Markov chain (CTMC). It is named after the Russian mathematician Andrey Markov. rdf:langString
Sa mhatamaitic, is éard atá i Slabhra Markov ná slabhra eachtraí ina mbraitheann an dóchúlacht go ngluaisfear ar aghaidh don chéad staid eile ar an staid atá ann anois. Is féidir iad a léiriú le maitrísí. Léirítear slabhra Markov déstaide, ina bhfuil dhá staid a d'fhéadfaí a bheith ann, mar seo: D'fhionn an matamaiticeoir Sóivéadach (1856-1922) an coincheap áisiúil seo. rdf:langString
Rantai Markov adalah proses stokastik yang menggambarkan urutan barisan yang mungkin di mana probabilitas setiap kejadian hanya bergantung pada keadaan yang dicapai pada kejadian sebelumnya. Urutan tak terbatas yang dapat dihitung, di mana rantai bergerak pada langkah waktu diskrit, memberikan rantai Markov waktu diskrit (DTMC). Proses waktu kontinu disebut rantai Markov waktu kontinu (CTMC). Ini dinamai ahli matematika Rusia Andrei Markov. rdf:langString
Si definisce processo stocastico markoviano (o di Markov), un processo aleatorio in cui la probabilità di transizione che determina il passaggio a uno stato di sistema dipende solo dallo stato del sistema immediatamente precedente (proprietà di Markov) e non da come si è giunti a questo stato. Viceversa si dice processo non markoviano un processo aleatorio per cui non vale la proprietà di Markov. Prende il nome dal matematico russo Andrej Andreevič Markov che per primo ne sviluppò la teoria. Modelli di tipo markoviano vengono utilizzati nella progettazione di reti di telecomunicazioni: la teoria delle code che ne consegue trova applicazione in molti ambiti, dalla fila agli sportelli ai pacchetti dati in coda in un router. rdf:langString
Een markovketen, genoemd naar de Russische wiskundige Andrej Markov, beschrijft een systeem dat zich door een aantal toestanden beweegt en stapsgewijs overgangen vertoont van de ene naar een andere (of dezelfde) toestand. De specifieke markov-eigenschap houdt daarbij in dat populair uitgedrukt: "de toekomst gegeven het heden niet afhangt van het verleden". Dat betekent dat als het systeem zich in een bepaalde toestand bevindt, het toekomstige gedrag van het systeem, dus de komende overgangen, slechts afhangen van de huidige toestand en niet van de weg waarlangs deze toestand tot stand is gekomen. De successievelijke toestanden van het systeem worden beschreven door een rij stochastische variabelen met respectievelijke kansverdelingen , waarin de toestand van het systeem is na stappen. D rdf:langString
Proces Markowa – ciąg zdarzeń, w którym prawdopodobieństwo każdego zdarzenia zależy jedynie od wyniku poprzedniego. W ujęciu matematycznym, procesy Markowa to takie procesy stochastyczne, które spełniają własność Markowa. Łańcuchy Markowa to procesy Markowa z czasem dyskretnym. Łańcuch Markowa jest ciągiem zmiennych losowych. Dziedzinę tych zmiennych nazywamy przestrzenią stanów, a realizacje to stany w czasie Jeśli rozkład warunkowy jest funkcją wyłącznie zmiennej to mówimy, że proces stochastyczny posiada własność Markowa. rdf:langString
En Markovkedja är inom matematiken en tidsdiskret stokastisk process med Markovegenskapen, det vill säga att processens förlopp kan bestämmas utifrån dess befintliga tillstånd utan kännedom om det förflutna. En Markovkedja som är tidskontinuerlig kallas en Markovprocess. Markovkedjor har många tillämpningsområden, bland annat för att beskriva och inom bioinformatik. Resultaten som ligger till grund för teorin om Markovkedjor framlades 1906 av Andrej Markov. rdf:langString
rdf:langString سلسلة ماركوف
rdf:langString Cadena de Màrkov
rdf:langString Markovův řetězec
rdf:langString Markow-Kette
rdf:langString Markov-Modell
rdf:langString Αλυσίδα Μάρκοφ
rdf:langString Cadena de Márkov
rdf:langString Markov kate
rdf:langString Slabhra Markov
rdf:langString Rantai Markov
rdf:langString Chaîne de Markov
rdf:langString Processo markoviano
rdf:langString Markov chain
rdf:langString 마르코프 모형
rdf:langString 마르코프 연쇄
rdf:langString マルコフ連鎖
rdf:langString Markovketen
rdf:langString Łańcuch Markowa
rdf:langString Cadeias de Markov
rdf:langString Цепь Маркова
rdf:langString Markovkedja
rdf:langString Ланцюг Маркова
rdf:langString Марковська модель
rdf:langString 马尔可夫链
xsd:integer 60876
xsd:integer 1123291087
rdf:langString left
rdf:langString Michaelis-Menten kinetics. The enzyme binds a substrate and produces a product . Each reaction is a state transition in a Markov chain.
rdf:langString {E} + \underset{Substrate\atop binding}{S E}\overset{Catalytic\atop step}{S -> E} + P
xsd:date 2008-05-22
rdf:langString p/m062350
rdf:langString Markov chain
xsd:integer 200
rdf:langString Una cadena de Màrkov , que rep el seu nom del matemàtic rus Andrei Màrkov (1856-1922), és una sèrie d'esdeveniments, en la qual la probabilitat que passi un esdeveniment depèn de l'esdeveniment immediat anterior. En efecte, les cadenes d'aquest tipus tenen memòria. "Recorden" l'últim esdeveniment i això condiciona les possibilitats dels esdeveniments futurs. Aquesta dependència de l'esdeveniment anterior distingeix a les cadenes de Màrkov de les sèries d'esdeveniments independents, com tirar una moneda a l'aire o un dau. Aquest tipus de procés, introduït per Màrkov en un article publicat a 1907, presenta una forma de dependència simple, però molt útil en molts models, entre les variables aleatòries que formen un procés estocàstic. En els negocis, les cadenes de Màrkov s'han utilitzat per analitzar els patrons de compra dels , per planificar les necessitats de i per analitzar el reemplaçament d'equip. Les seves aplicacions són diverses, com ara en els models estadístics de procesos del món real, com ara l'estudi dels sistemes de control de creuer en vehicles amb motor, les cues de clients que arriben en un aeroport, les taxes de canvi de les monedes i les dinàmiques poblacionals dels animals. Els processos de Markov són la base dels mètodes generals de simulació estocàstica coneguts com cadena de Markov Monte Carlo, que s'utilitzen per simular mostres que provenen de distribucions probabilístiques complexes, i se n'han trobat aplicacions en l'estadística bayesiana, la termodinàmica, la mecànica estadística, la física, la química, l'economia, les finances, el processament de senyals, la teoria de la informació i la intel·ligència artificial. S'utilitza l'adjectiu markovià (en anglès, Markovian) per notar que alguna cosa està relacionada amb el procés de Markov.
rdf:langString سلسلة ماركوف (بالإنجليزية: Markov Chain)‏ مصطلح رياضي وهو عبارة عن عملية تصادفية تحمل خاصية ماركوفية. في عملية كهذه، تكهُنُ المستقبل انطلاقا من الحاضر لا يحتاج إلى معرفة الماضي. ولقد أخذت اسم مبتكرها الروسي أندريا ماركوف. سلسلة ماركوف في وقت متقطع هي السلسلة X1, X2, X3,... متكونة من متغيرات عشوائية. مجموعة القيمات الممكنة تدعي فضاء الحالات. وXn تدعى حالة العملية في الآن n. إذا كان توزيع الاحتمال الشرطي لXn+1 على الحالات الفارطة دالة وحده إذن .حيث x هي دالة ما في العملية. المعادلة هذه تعرف بالاحتمال الماركوفي. نشر أندري ماركوف النتائج الأولى حول هذه العملية عام 1906م. التعميم إلى فضاء حالات لا متناهية معدودة أتى من (بالإنجليزية: Andrei Kolmogorov)‏ في 1936م.
rdf:langString Markovův řetězec popisuje obvykle diskrétní náhodný (stochastický či pravděpodobnostní) proces, pro který platí, že pravděpodobnosti přechodu do následujícího stavu závisejí pouze na současném stavu, ne na předchozích stavech. Tato tzv. dovoluje proces znázornit stavovým diagramem, kde z každého stavu (uzlu grafu) vycházejí hrany možných přechodů do dalšího stavu s připsanou pravděpodobností. Obrázek říká, že je-li systém ve stavu E, přejde s pravděpodobností 0,7 do stavu A, kdežto s pravděpodobností 0,3 zůstane ve stavu E. Podobně po stavu A bude s pravděpodobností 0,4 následovat stav E, kdežto s pravděpodobností 0,6 systém zůstane ve stavu A. Chování takového systému je tedy „bezpaměťové“: není potřeba si pamatovat historii, stačí pouze aktuální stav. Reprezentací takového systému tedy může být konečný automat. Markovovy řetězce dostaly jméno po matematiku Andreji Markovovi. Příklad: Pokud je známo, s jakou pravděpodobností následují např. v angličtině po určitém znaku abecedy jiné znaky, lze automaticky generovat náhodné řetězce znaků, které sice zpravidla nedávají smysl, ale na pohled se anglickým větám velmi podobají. Markovovy řetězce mají mnoho praktických použití, zejména v informatice, v chemii, v ekonomii i v dalších společenských vědách.
rdf:langString In der Wahrscheinlichkeitstheorie ist ein Markov-Modell ein stochastisches Modell, das zur Modellierung sich zufällig verändernder Systeme verwendet wird. Es wird angenommen, dass zukünftige Zustände nur vom aktuellen Zustand abhängen, nicht von den Ereignissen, die davor eingetreten sind (d. h. es nimmt die Markov-Eigenschaft an). Im Allgemeinen ermöglicht diese Annahme Schlussfolgerungen und Rechentechniken, die sonst unmöglich wären. Aus diesem Grund ist es in den Bereichen der prädiktiven Modellierung und probabilistischen Prognose wünschenswert, dass ein bestimmtes Modell die Markov-Eigenschaft aufweist.
rdf:langString Η αλυσίδα Μάρκοφ, ή μαρκοβιανή αλυσίδα, που πήρε το όνομα της από τον , είναι ένα μαθηματικό σύστημα που μεταβάλλεται από μια κατάσταση σε μια άλλη, ανάμεσα σε ένα πεπερασμένο αριθμό καταστάσεων. Είναι μια τυχαία διαδικασία που δε διατηρεί μνήμη για τις προηγούμενες μεταβολές: Η επόμενη κατάσταση εξαρτάται μόνο από την τωρινή κατάσταση και σε καμιά περίπτωση από αυτές που προηγήθηκαν. Αυτό το συγκεκριμένο είδος "αμνησίας" ονομάζεται μαρκοβιανή ιδιότητα. Οι Μαρκοβιανές Αλυσίδες έχουν πολλές εφαρμογές ως στατιστικά μοντέλα καθημερινών διαδικασιών.
rdf:langString Eine Markow-Kette (englisch Markov chain; auch Markow-Prozess, nach Andrei Andrejewitsch Markow; andere Schreibweisen Markov-Kette, Markoff-Kette, Markof-Kette) ist ein stochastischer Prozess. Ziel bei der Anwendung von Markow-Ketten ist es, Wahrscheinlichkeiten für das Eintreten zukünftiger Ereignisse anzugeben. Eine Markow-Kette ist darüber definiert, dass durch Kenntnis einer nur begrenzten Vorgeschichte ebenso gute Prognosen über die zukünftige Entwicklung möglich sind wie bei Kenntnis der gesamten Vorgeschichte des Prozesses. Man unterscheidet Markow-Ketten unterschiedlicher Ordnung. Im Falle einer Markow-Kette erster Ordnung heißt das: Der zukünftige Zustand des Prozesses ist nur durch den aktuellen Zustand bedingt und wird nicht durch vergangene Zustände beeinflusst. Die mathematische Formulierung im Falle einer endlichen Zustandsmenge benötigt lediglich den Begriff der diskreten Verteilung sowie der bedingten Wahrscheinlichkeit, während im zeitstetigen Falle die Konzepte der Filtration sowie der bedingten Erwartung benötigt werden. Die Begriffe Markow-Kette und Markow-Prozess werden im Allgemeinen synonym verwendet. Zum Teil sind aber zur Abgrenzung mit Markow-Ketten Prozesse in diskreter Zeit (diskreter Zustandsraum) gemeint und mit Markow-Prozessen Prozesse in stetiger Zeit (stetiger Zustandsraum).
rdf:langString En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior. Esta característica de incluir una memoria reciente recibe el nombre de propiedad de Markov en contraste con los eventos independientes que no tienen memoria de ningún evento anterior. En un primer artículo de 1906 A. A. Markov definió la "cadena simple" como "una secuencia infinita x1, x2, ..., xk, xk+1, ..., de variables conectadas de tal modo que xk+1 para cualquier k es independiente de x1, x2, ..., xk−1, en el caso de que xk sea conocida”. Markov llamó a la cadena "homogénea" si la distribución condicional de xk+1 dado xk fuese independiente de k. También consideró cadenas "complicadas (complex en inglés)" en las que "cada número está conectado directamente no sólo con uno, sino con varios números anteriores".​ Recibe su nombre del matemático ruso Andréi Márkov (1856-1922), que lo introdujo en 1906.​ Estos modelos estadísticos cuentan con un gran número de aplicaciones reales.
rdf:langString Probabilitate-teorian, Markov katea aldi bakoitzeanmultzo diskretu eta finko batekoi egoera batetik j egoera batera aldatzeko pij probabilitate konstanteak dituen prozesu estokastiko bat da,hasiera batean egoera bakoitzean izateko probabilitateak ere zehazten dituena. Nabarmendu behar da egoera jakinbatera aldatzeko probabilitatea aurreko aldiko egoeraren mendean dagoela soilik. Prozesu hauek Andrei Markov matematikariaren izena hartzen dute, bera izan baitzen horiek aztertu zituen lehena. Adibidez, toki batean egun bakoitzean euria egiteko probabilitatea bezperan euria egin zuen mendean dago.Bezperan euria egin bazuen, biharamunean euria egin eta ateri izateko probabilitateak0.3 eta 0.7 dira, hurrenez hurren. Aldiz, bezperan ateri izan bazen, biharamunean euria eta ateriizateko probabilitateak 0.4 eta 0.6 dira. Horrela, prozesu honi dagokion Markov katea honelairudika daiteke, matrize bat erabiliz, errenkadek bezpera eta zutabeak biharamuna adierazten dutelarik: Arestian agertzen direnak P(A/B) baldintzapeko probabilitateak dira: B gertatu dela jakinda, A gertatzeko probabilitatea alegia. Adibidean horrela planteatuta, biharamun bateko eguraldia bezperako eguraldiaren mendean dago soilik, Markoven kateen propietatea errespetatuz. Markov kateen azterketaz denboran zehar gertatzen den bilakaeraren ezaugarri eta propietateak ezagutuko dira,esaterako ohikoa da kateak izan dezakeen banaketa egonkorra kalkulatzea, epe luzera(kontuan hartu gabe zein alditan den) egoera bakoitzean izateko probabilitateak zehaztea. Emandako adibidean, banaketa egonkorrakepe luzera, eguna zehaztu gabe, edozein egunetan euria egin eta ateri izateko probabilitateak adieraziko lituzke, gaur egunetik behatuta.
rdf:langString A Markov chain or Markov process is a stochastic model describing a sequence of possible events in which the probability of each event depends only on the state attained in the previous event. Informally, this may be thought of as, "What happens next depends only on the state of affairs now." A countably infinite sequence, in which the chain moves state at discrete time steps, gives a discrete-time Markov chain (DTMC). A continuous-time process is called a continuous-time Markov chain (CTMC). It is named after the Russian mathematician Andrey Markov. Markov chains have many applications as statistical models of real-world processes, such as studying cruise control systems in motor vehicles, queues or lines of customers arriving at an airport, currency exchange rates and animal population dynamics. Markov processes are the basis for general stochastic simulation methods known as Markov chain Monte Carlo, which are used for simulating sampling from complex probability distributions, and have found application in Bayesian statistics, thermodynamics, statistical mechanics, physics, chemistry, economics, finance, signal processing, information theory and speech processing. The adjectives Markovian and Markov are used to describe something that is related to a Markov process.
rdf:langString Sa mhatamaitic, is éard atá i Slabhra Markov ná slabhra eachtraí ina mbraitheann an dóchúlacht go ngluaisfear ar aghaidh don chéad staid eile ar an staid atá ann anois. Is féidir iad a léiriú le maitrísí. Léirítear slabhra Markov déstaide, ina bhfuil dhá staid a d'fhéadfaí a bheith ann, mar seo: Mar shampla, is féidir le duine taisteal abhaile ón obair ar charr nó traein. Má théann sé ar charr lá amháin, is í an dóchúlacht go ndéanfaidh sé amhlaidh an lá dár gcionn ná 0.4. Má théann sé ar an traein lá amháin, is í an dóchúlacht go ndéanfaidh sé amhlaidh an lá dár gcionn ná 0.3. Léirítear iad seo leis an maitrís thrasdultach: D'fhionn an matamaiticeoir Sóivéadach (1856-1922) an coincheap áisiúil seo.
rdf:langString En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »). Les processus de Markov portent le nom de leur inventeur, Andreï Markov. Un processus de Markov à temps discret est une séquence de variables aléatoires à valeurs dans l’espace des états, qu'on notera dans la suite. La valeur est l'état du processus à l'instant Les applications où l'espace d'états est fini ou dénombrable sont innombrables : on parle alors de chaîne de Markov ou de chaînes de Markov à espace d'états discret. Les propriétés essentielles des processus de Markov généraux, par exemple les propriétés de récurrence et d'ergodicité, s'énoncent ou se démontrent plus simplement dans le cas des chaînes de Markov à espace d'états discret. Cet article concerne précisément les chaînes de Markov à espace d'états discret. Andreï Markov a publié les premiers résultats sur les chaînes de Markov à espace d'états fini en 1906. Une généralisation à un espace d'états infini dénombrable a été publiée par Kolmogorov en 1936. Les processus de Markov sont liés au mouvement brownien et à l'hypothèse ergodique, deux sujets de physique statistique qui ont été très importants au début du XXe siècle.
rdf:langString Rantai Markov adalah proses stokastik yang menggambarkan urutan barisan yang mungkin di mana probabilitas setiap kejadian hanya bergantung pada keadaan yang dicapai pada kejadian sebelumnya. Urutan tak terbatas yang dapat dihitung, di mana rantai bergerak pada langkah waktu diskrit, memberikan rantai Markov waktu diskrit (DTMC). Proses waktu kontinu disebut rantai Markov waktu kontinu (CTMC). Ini dinamai ahli matematika Rusia Andrei Markov. Rantai Markov memiliki banyak aplikasi sebagai model statistik dari proses dunia nyata,, seperti mempelajari sistem kendali jelajah pada kendaraan bermotor, antrian atau antrian pelanggan yang tiba di bandara, nilai tukar mata uang dan dinamika populasi hewan. Proses Markov adalah dasar untuk metode simulasi stokastik umum yang dikenal sebagai rantai Markov Monte Carlo, yang digunakan untuk mensimulasikan pengambilan sampel dari distribusi probabilitas yang kompleks, dan telah menemukan aplikasi dalam statistik Bayesian, termodinamika, mekanika statistik, fisika, kimia, ekonomi, keuangan, sinyal pemrosesan, teori informasi, dan pemrosesan ucapan.
rdf:langString マルコフ連鎖(マルコフれんさ、英: Markov chain)とは、確率過程の一種であるマルコフ過程のうち、とりうる状態が離散的(有限または可算)なもの(離散状態マルコフ過程)をいう。また特に、時間が離散的なもの(時刻は添え字で表される)を指すことが多い。マルコフ連鎖は、未来の挙動が現在の値だけで決定され、過去の挙動と無関係である(マルコフ性)。各時刻において起こる状態変化(遷移または推移)に関して、マルコフ連鎖は遷移確率が過去の状態によらず、現在の状態のみによる系列である。特に重要な確率過程として、様々な分野に応用される。
rdf:langString 마르코프 모형 또는 마르코프 모델은 확률 모델의 유형이다.
rdf:langString Si definisce processo stocastico markoviano (o di Markov), un processo aleatorio in cui la probabilità di transizione che determina il passaggio a uno stato di sistema dipende solo dallo stato del sistema immediatamente precedente (proprietà di Markov) e non da come si è giunti a questo stato. Viceversa si dice processo non markoviano un processo aleatorio per cui non vale la proprietà di Markov. Prende il nome dal matematico russo Andrej Andreevič Markov che per primo ne sviluppò la teoria. Modelli di tipo markoviano vengono utilizzati nella progettazione di reti di telecomunicazioni: la teoria delle code che ne consegue trova applicazione in molti ambiti, dalla fila agli sportelli ai pacchetti dati in coda in un router. Un processo di Markov può essere descritto per mezzo dell'enunciazione della proprietà di Markov, o condizione di "assenza di memoria", che può essere scritta come:
rdf:langString Een markovketen, genoemd naar de Russische wiskundige Andrej Markov, beschrijft een systeem dat zich door een aantal toestanden beweegt en stapsgewijs overgangen vertoont van de ene naar een andere (of dezelfde) toestand. De specifieke markov-eigenschap houdt daarbij in dat populair uitgedrukt: "de toekomst gegeven het heden niet afhangt van het verleden". Dat betekent dat als het systeem zich in een bepaalde toestand bevindt, het toekomstige gedrag van het systeem, dus de komende overgangen, slechts afhangen van de huidige toestand en niet van de weg waarlangs deze toestand tot stand is gekomen. De successievelijke toestanden van het systeem worden beschreven door een rij stochastische variabelen met respectievelijke kansverdelingen , waarin de toestand van het systeem is na stappen. De markov-eigenschap wordt uitgedrukt in een eigenschap van de overgangskansen.
rdf:langString 확률론에서 마르코프 연쇄(Марков 連鎖, 영어: Markov chain)는 이산 시간 확률 과정이다. 마르코프 연쇄는 시간에 따른 계의 상태의 변화를 나타낸다. 매 시간마다 계는 상태를 바꾸거나 같은 상태를 유지한다. 상태의 변화를 전이라 한다. 마르코프 성질은 과거와 현재 상태가 주어졌을 때의 미래 상태의 조건부 확률 분포가 과거 상태와는 독립적으로 현재 상태에 의해서만 결정된다는 것을 뜻한다
rdf:langString Proces Markowa – ciąg zdarzeń, w którym prawdopodobieństwo każdego zdarzenia zależy jedynie od wyniku poprzedniego. W ujęciu matematycznym, procesy Markowa to takie procesy stochastyczne, które spełniają własność Markowa. Łańcuchy Markowa to procesy Markowa z czasem dyskretnym. Łańcuch Markowa jest ciągiem zmiennych losowych. Dziedzinę tych zmiennych nazywamy przestrzenią stanów, a realizacje to stany w czasie Jeśli rozkład warunkowy jest funkcją wyłącznie zmiennej to mówimy, że proces stochastyczny posiada własność Markowa. Przedstawiona definicja zakłada czas dyskretny. Istnieją procesy Markowa z czasem ciągłym, jednak nie są one przedstawione w tym artykule. Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku. Uogólnienie na przeliczalnie nieskończone przestrzenie stanów zostało opracowane przez Kołmogorowa w 1936. Łańcuchy Markowa mają związek z ruchami Browna oraz hipotezą ergodyczną, dwoma ważnymi w fizyce tematami, ale powstały jako uogólnienie prawa wielkich liczb na zdarzenia zależne.
rdf:langString Це́пь Ма́ркова — последовательность случайных событий с конечным или счётным числом исходов, где вероятность наступления каждого события зависит только от состояния, достигнутого в предыдущем событии. Характеризуется тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого. Названа в честь А. А. Маркова (старшего), который впервые ввёл это понятие в работе 1906 года.
rdf:langString Em matemática, uma cadeia de Markov (cadeia de Markov em tempo discreto ou DTMC) é um caso particular de processo estocástico com estados discretos (o parâmetro, em geral o tempo, pode ser discreto ou contínuo) com a propriedade de que a distribuição de probabilidade do próximo estado depende apenas do estado atual e não na sequência de eventos que precederam, uma propriedade chamada de Markoviana, chamada assim em homenagem ao matemático Andrei Andreyevich Markov. A definição dessa propriedade, também chamada de memória markoviana, é que os estados anteriores são irrelevantes para a predição dos estados seguintes, desde que o estado atual seja conhecido. Cadeias de Markov têm muitas aplicações como modelos estatísticos de processos do mundo real.
rdf:langString En Markovkedja är inom matematiken en tidsdiskret stokastisk process med Markovegenskapen, det vill säga att processens förlopp kan bestämmas utifrån dess befintliga tillstånd utan kännedom om det förflutna. En Markovkedja som är tidskontinuerlig kallas en Markovprocess. En Markovkedja som antar ändligt många värden kan representeras av en övergångsmatris. Givet en sannolikhetsvektor, erhålles sannolikhetsvektorn för nästa steg i kedjan av multiplikation med övergångsmatrisen. Flera steg kan beräknas genom exponentiering av övergångsmatrisen. Det är även möjligt att beräkna processens , det vill säga vad som händer då processen fortsätter i oändligheten, med hjälp av egenvektorer. Markovkedjor har många tillämpningsområden, bland annat för att beskriva och inom bioinformatik. Resultaten som ligger till grund för teorin om Markovkedjor framlades 1906 av Andrej Markov.
rdf:langString Ланцюг Маркова в математиці це випадковий процес, що задовольняє властивість Маркова і який приймає скінченну чи зліченну кількість значень (станів). Існують ланцюги Маркова як з дискретним так і з неперервним часом. В даній статті розглядається дискретний випадок.
rdf:langString 马尔可夫链(英語:Markov chain),又稱離散時間馬可夫鏈(discrete-time Markov chain,縮寫為DTMC),因俄國數學家安德烈·马尔可夫得名,为狀態空間中经过从一个状态到另一个状态的转换的随机过程。该过程要求具备“无记忆”的性质:下一状态的概率分布只能由当前状态决定,在时间序列中它前面的事件均与之无关。这种特定类型的“无记忆性”称作馬可夫性質。马尔科夫链作为实际过程的统计模型具有许多应用。 在马尔可夫链的每一步,系统根据概率分布,可以从一个状态变到另一个状态,也可以保持当前状态。状态的改变叫做转移,与不同的状态改变相关的概率叫做转移概率。随机漫步就是马尔可夫链的例子。随机漫步中每一步的状态是在图形中的点,每一步可以移动到任何一个相邻的点,在这里移动到每一个点的概率都是相同的(无论之前漫步路径是如何的)。
rdf:langString У теорії ймовірностей, моделі Маркова це стохастичні моделі, які використовуються для моделювання систем, що випадково змінюються, де передбачається, що майбутні стани залежать тільки від поточного стану, а не від послідовності подій, які передували цьому (тобто, вона передбачає властивість Маркова). Як правило, це припущення дозволяє міркування і обчислення з моделлю, яка б в іншому випадку лишилась нерозв'язною.
xsd:nonNegativeInteger 96077

data from the linked data cloud