Markov process (engl.)
benutzt für: Markoff-Kette, Markoffscher Prozeß, Markoffscher Prozess, Markov-Kette, Markovsche Kette, Markovscher Prozeß, Markov chain
Oberbegriffe
Verwandte Begriffe
Thesaurus Systematik
Links zu anderen Thesauri und Vokabularen
= | Markov-Prozess (aus SWD) |
> | Markov-Ketten-Monte-Carlo-Verfahren (aus SWD) |
> | Markov-Entscheidungsprozess mit stetiger Zeit (aus SWD) |
> | Markov-Kette (aus SWD) |
> | Semi-Markov-Prozess (aus SWD) |
> | Markov-Entscheidungsprozess (aus SWD) |
Persistenter Identifier (für Bookmarks und zum Verlinken)
Standard-Thesaurus Wirtschaft
(v 8.08,
2011-06-30)
▪
Anregungen und Kommentare an das
Thesaurus Team
ZBW - Leibniz-Informationszentrum Wirtschaft -
Impressum