Propietat de Markov
De Viquipèdia
La propietat de Markov defineix que una cadena de Markov es pot caracteritzar per la probabilitat d'anar a l'estat n+1 condicionada a que abans siguem a l'estat nn:
Que és la probabilitat de transició del procés. La propietat de les cadenes de Markov és que les transicions entre els estats, només pot produïr-se entre estats veïns. Només es pot arribar a l'estat i des de l'estat i-1 o bé de i+1.
Aquest tipus d'estadístiques es sol trobar en la distribució exponencial, la funció de densitat de probabilitat de la qual s'expressa així:
Anem a comprobar que un procés definit per a questa fdp no té memòria. La probabilitat de que hi haja una transició entre 0 i un temps t qualsevol és:
Si integrem, obtenim:
Ara anem a calcular la probabilitat per al mateix interval t, però amb un instant d'inici diferent t0. Calculem la probabilitat de tindre una transició en l'interval t (de t0 fins a t0+t) condicionat a que abans de t0 no hi ha hagut cap transició:
Substituint per les fdp i substituint:
Amb la qual cosa queda demostrat que la probabilitat de tindre una transició en un estat no depèn del temps anterior.