Markov chain (engl.)
benutzt für: Markovscher Prozeß, Markovscher Prozess, Markovsche Kette, Markoff-Kette, Steady-state distribution of Markov chains, Markov process, Hidden Markov model
Oberbegriffe
Verwandte Begriffe
Thesaurus Systematik
Links zu anderen Thesauri und Vokabularen
= | Markov-Kette (aus GND) |
> | Markov-Entscheidungsprozess (aus GND) |
> | Semi-Markov-Prozess (aus GND) |
> | Markov-Entscheidungsprozess mit stetiger Zeit (aus GND) |
> | Markov-Ketten-Monte-Carlo-Verfahren (aus GND) |
~ | Markov-Prozess (aus GND) |
Persistenter Identifier (für Bookmarks und zum Verlinken)
Standard-Thesaurus Wirtschaft
(v 9.0,
2015-06-15)
▪
Anregungen und Kommentare an das
Thesaurus Team
▪
Mailinglisten:
stw-announce, stw-user
ZBW - Leibniz-Informationszentrum Wirtschaft -
Impressum