En la teoría de la probabilidad, se conoce como cadena de
Márkov a un tipo especial de proceso estocástico discreto en el que la
probabilidad de que ocurra un evento depende del evento inmediatamente
anterior. En efecto, las cadenas de este tipo tienen memoria.
"Recuerdan" el último evento y esto condiciona las posibilidades de
los eventos futuros. Esta dependencia del evento anterior distingue a las
cadenas de Márkov de las series de eventos independientes, como tirar una
moneda al aire o un dado.