Partially observable Markov decision process
http://dbpedia.org/resource/Partially_observable_Markov_decision_process an entity of type: WikicatMarkovProcesses
部分観測マルコフ決定過程(ぶぶんかんそくマルコフけっていかてい、英: partially observable Markov decision process; POMDP)はマルコフ決定過程 (MDP) の一般化であり,状態を直接観測できないような意思決定過程におけるモデル化の枠組みを与える. POMDP は実世界におけるあらゆる逐次的な意思決定過程をモデル化するのに十分であり,ロボットのナビゲーションや機械整備 (machine maintenance),および不確実な状況下でのプランニングなどに応用されている.POMDP はオペレーションズリサーチを起源とし,のちに人工知能や自動計画のコミュニティに引き継がれた.
rdf:langString
部分可觀察马尔可夫決策過程(Partially Observable Markov Decision Process,缩写:POMDP),是一種通用化的馬可夫決策過程。POMDP模擬代理人決策程序是假設系統動態由MDP決定,但是代理人無法直接觀察目前的狀態。相反的,它必須要根據模型的全域與部分區域觀察結果來推斷狀態的分佈。 因為POMDP架構的通用程度足以模擬不同的真實世界的連續過程,應用於機器人導航問題、機械維護和不定性規劃。架構最早由研究機構所建立,隨後人工智慧與社群繼續發展。
rdf:langString
A partially observable Markov decision process (POMDP) is a generalization of a Markov decision process (MDP). A POMDP models an agent decision process in which it is assumed that the system dynamics are determined by an MDP, but the agent cannot directly observe the underlying state. Instead, it must maintain a sensor model (the probability distribution of different observations given the underlying state) and the underlying MDP. Unlike the policy function in MDP which maps the underlying states to the actions, POMDP's policy is a mapping from the history of observations (or belief states) to the actions.
rdf:langString
En théorie de la décision et de la théorie des probabilités, un processus de décision markovien partiellement observable (POMDP pour partially observable Markov decision process) est une généralisation d'un processus de décision markoviens (MDP pour Markov decision process). Comme dans un MDP, l'effet des actions est incertain mais, contrairement à ce qui se passe pour un MDP, l'agent n'a qu'une information partielle de l'état courant. Les POMDP sont des modèles de Markov cachés (HMM pour hidden Markov model) particuliers, dans lesquels on dispose d'actions probabilistes. Le tableau suivant montre la place des POMDP dans la famille des processus de décision :
rdf:langString
rdf:langString
Processus de décision markovien partiellement observable
rdf:langString
部分観測マルコフ決定過程
rdf:langString
Partially observable Markov decision process
rdf:langString
部分可觀察馬可夫決策過程
xsd:integer
3063552
xsd:integer
1104376990
rdf:langString
En théorie de la décision et de la théorie des probabilités, un processus de décision markovien partiellement observable (POMDP pour partially observable Markov decision process) est une généralisation d'un processus de décision markoviens (MDP pour Markov decision process). Comme dans un MDP, l'effet des actions est incertain mais, contrairement à ce qui se passe pour un MDP, l'agent n'a qu'une information partielle de l'état courant. Les POMDP sont des modèles de Markov cachés (HMM pour hidden Markov model) particuliers, dans lesquels on dispose d'actions probabilistes. Le tableau suivant montre la place des POMDP dans la famille des processus de décision : Les modèles de cette famille sont, entre autres, utilisés en intelligence artificielle pour le contrôle de systèmes complexes comme des agents intelligents.
rdf:langString
A partially observable Markov decision process (POMDP) is a generalization of a Markov decision process (MDP). A POMDP models an agent decision process in which it is assumed that the system dynamics are determined by an MDP, but the agent cannot directly observe the underlying state. Instead, it must maintain a sensor model (the probability distribution of different observations given the underlying state) and the underlying MDP. Unlike the policy function in MDP which maps the underlying states to the actions, POMDP's policy is a mapping from the history of observations (or belief states) to the actions. The POMDP framework is general enough to model a variety of real-world sequential decision processes. Applications include robot navigation problems, machine maintenance, and planning under uncertainty in general. The general framework of Markov decision processes with imperfect information was described by Karl Johan Åström in 1965 in the case of a discrete state space, and it was further studied in the operations research community where the acronym POMDP was coined. It was later adapted for problems in artificial intelligence and automated planning by Leslie P. Kaelbling and Michael L. Littman. An exact solution to a POMDP yields the optimal action for each possible belief over the world states. The optimal action maximizes the expected reward (or minimizes the cost) of the agent over a possibly infinite horizon. The sequence of optimal actions is known as the optimal policy of the agent for interacting with its environment.
rdf:langString
部分観測マルコフ決定過程(ぶぶんかんそくマルコフけっていかてい、英: partially observable Markov decision process; POMDP)はマルコフ決定過程 (MDP) の一般化であり,状態を直接観測できないような意思決定過程におけるモデル化の枠組みを与える. POMDP は実世界におけるあらゆる逐次的な意思決定過程をモデル化するのに十分であり,ロボットのナビゲーションや機械整備 (machine maintenance),および不確実な状況下でのプランニングなどに応用されている.POMDP はオペレーションズリサーチを起源とし,のちに人工知能や自動計画のコミュニティに引き継がれた.
rdf:langString
部分可觀察马尔可夫決策過程(Partially Observable Markov Decision Process,缩写:POMDP),是一種通用化的馬可夫決策過程。POMDP模擬代理人決策程序是假設系統動態由MDP決定,但是代理人無法直接觀察目前的狀態。相反的,它必須要根據模型的全域與部分區域觀察結果來推斷狀態的分佈。 因為POMDP架構的通用程度足以模擬不同的真實世界的連續過程,應用於機器人導航問題、機械維護和不定性規劃。架構最早由研究機構所建立,隨後人工智慧與社群繼續發展。
xsd:nonNegativeInteger
19353