Übergangsmatrix

In der Mathematik, besonders der Wahrscheinlichkeitstheorie und Statistik, dient eine Übergangsmatrix (auch Prozessmatrix oder stochastische Matrix) dazu, die Übergangswahrscheinlichkeiten von (diskreten und kontinuierlichen) Markow-Ketten auszudrücken. Dadurch lassen sich künftige Entwicklungen vorausberechnen. In der Theorie der Markow-Ketten werden auch unendlichdimensionale Übergangsmatrizen definiert. In diesem Artikel werden jedoch nur Matrizen im Sinne der Linearen Algebra behandelt.

Eine Übergangsmatrix ist eine quadratische Matrix, deren Zeilen- oder Spaltensummen Eins betragen und deren Elemente zwischen Null und Eins liegen.

Prozessmatrizen dienen ebenfalls zur künftigen Berechnung dynamischer Entwicklungen. Im Gegensatz zu stochastischen Matrizen müssen sie jedoch keine Zeilen- bzw. Spaltensummen von 1 haben. Sie sind jedoch wie die stochastische Matrix quadratisch.

Weitere Unterscheidung

Äquivalent ist die folgende Definition: Eine Matrix heißt zeilen-(spalten-)stochastisch, wenn sie zeilen-(spalten-)weise aus Wahrscheinlichkeitsvektoren besteht.

Teilweise werden Matrizen mit Einträgen zwischen 0 und 1, deren Zeilensummen (bzw. Spaltensummen) kleiner als 1 sind, auch als substochastisch bezeichnet. In der Stochastik sind fast ausschließlich zeilenstochastische Matrizen gebräuchlich. Die Unterscheidung ist aber i.A. wenig gebräuchlich, da die Matrizen durch Transponierung ineinander übergehen.

Eigenschaften

Eigenwerte und Eigenvektoren

Den Eigenwerten und Eigenvektoren einer stochastischen Matrix kommt in der Stochastik eine besondere Rolle zu. Ist v Eigenvektor zum Eigenwert  \lambda=1 , entspricht er einer stationären Verteilung der Markow-Kette (vgl. unten). Generell besitzt jede stochastische Matrix den Eigenwert 1. Ist z.B. P zeilenstochastisch, so folgt mit der Zeilensummennorm, dass  \Vert P \Vert_\infty = 1. Da der Spektralradius einer Matrix immer höchstens so groß wie ihre Norm ist, müssen alle Eigenwerte betragsmäßig kleiner oder gleich 1 sein. Ist nun  \mathbf{1} ein Einsvektor (d. h. ein Vektor mit nur 1 als Einträgen), so gilt  P\mathbf{1}=\mathbf{1} und 1 ist Eigenwert von P. Der Beweis für spaltenstochastische Matrizen läuft analog, aber mit der Spaltensummennorm anstelle der Zeilensummennorm. Daraus folgt direkt, dass 1 auch immer betragsgrößter Eigenwert ist. Des Weiteren ist 1 auch immer ein halbeinfacher Eigenwert. Die Dimension des Eigenraumes lässt sich etwas schwerer berechnen. Mit dem Satz von Perron-Frobenius folgt:

Konvexität, Normen und Abgeschlossenheit

Die Menge der Übergangsmatrizen ist konvex. Sind also P und  Q zeilen-(spalten-)stochastische Matrizen, so ist  \lambda P + (1-\lambda )Q wieder eine zeilen-(spalten-)stochastische Matrix für alle  \lambda \in [0,1] .

Direkt aus der Definition folgt, dass die Zeilensummennorm einer zeilenstochastischen Matrix 1 ist, genauso wie die Spaltensummennorm einer spaltenstochastischen Matrix.

Außerdem sind Übergangsmatrizen abgeschlossen bezüglich der Matrixmultiplikation, heißt sind  A,B (Spalten-)Zeilenstochastische Matrizen, so ist  A \cdot B wieder eine (Spalten-)Zeilenstochastische Matrix.

Beispiel für eine Übergangsmatrix P

P = \begin{bmatrix}
0{,}5 & 0{,}3 & 0{,}2 \\
0{,}2 & 0{,}4 & 0{,}4 \\
0{,}3 & 0{,}3 & 0{,}4 \end{bmatrix}

Das charakteristische Polynom einer (3\times 3)-Übergangsmatrix lässt sich sehr leicht berechnen.

Mit der Spur S := \operatorname{Spur}(P) und der Determinante  D := \det(P) gilt:

\begin{align}\chi_A(\lambda) & = \lambda^3 - S \cdot \lambda^2 + (S+D-1) \cdot \lambda - D\\
& = ( \lambda - 1 ) \cdot ( \lambda^2 - (S-1) \cdot \lambda + D )\end{align}

Aus der letzten Zeile ergibt sich, dass \lambda = 1 stets Eigenwert der Matrix P ist, unabhängig von der Wahl der Koeffizienten von P. Die anderen beiden Eigenwerte lassen sich dann über die p-q-Formel errechnen.

Anwendung zur Charakterisierung diskreter Markow-Ketten

Ist P eine zeilenstochastische Matrix, so lässt sich damit auf folgende Weise eine zeitinvariante Markow-Kette mit endlichem Zustandsraum charakterisieren:

Die Einträge p_{ij} der Matrix P sind genau die Übergangswahrscheinlichkeiten vom Zustand i in den Zustand j:  p_{i,j}:=P(X_{t+1}=j \mid X_t=i). Ist nun x_{0} ein Wahrscheinlichkeitsvektor (welcher in der Stochastik oftmals als Zeilenvektor definiert wird und mit  \pi bezeichnet wird), dann beschreibt x_{0} den Zustand des Systems zum Zeitpunkt 0 (dabei ist der i-te Eintrag von x_{0} die Aufenthaltswahrscheinlichkeit zum Zeitpunkt 0 im Zustand i). Die Aufenthaltswahrscheinlichkeiten zum Zeitpunkt 1 ergeben sich durch Linksmultiplikation von P mit x_{0}:

x_0^TP=x_1^T

Die Aufenthaltswahrscheinlichkeiten zu einem beliebigen Zeitpunkt k in Abhängigkeit vom Startzustand x_{0} sind dann

x_0^TP^k=x_k^T

Für spaltenstochastische Matrizen kann man analog vorgehen, bloß dass die Vektormultiplikation von rechts durchgeführt wird und der gewöhnliche Eigenvektor zum Eigenwert 1 berechnet wird. Alternativ kann man auch die Matrix transponieren und das oben skizzierte Vorgehen nutzen.

Eine besondere Rolle kommt den Linkseigenvektoren der Matrix P zum Eigenwert \lambda =1 zu, denn diese stellen die stationären Verteilungen der Markow-Kette dar.

Ein anwendungsorientiertes Beispiel für diese Verwendung von Übergangsmatrizen ist die Berechnung des PageRank mittels der Google-Matrix. Jeder Zustand entspricht dort einer Webseite im World Wide Web, die Übergangswahrscheinlichkeiten geben an, mit welcher Wahrscheinlichkeit ein Nutzer auf einen Link klickt. Die Grenzverteilung ist dann die relative Häufigkeit, mit welcher der Nutzer auf eine Webseite stößt, und damit ein Maß für die Wichtigkeit dieser Seite.

Auch die Rechtseigenvektoren einer Übergangsmatrix zum Eigenwert 1 spielen eine Rolle bei der Untersuchung von Markow-Ketten. Bei passender Normierung sind diese genau die Absorptionswahrscheinlichkeiten in einem absorbierenden Zustand.

Des Weiteren finden sich auch viele Eigenschaften einer Markow-Kette in der Übergangsmatrix wieder:

Beispiele

Der Adjazenzgraph der stochastischen Matrix aus dem Beispiel und damit auch ein Übergangsgraph
Die Ratte im Zimmer
 

Peter besitzt eine Ratte. Ist die Ratte nicht im Käfig eingesperrt, so befindet sie sich entweder unter dem Schreibtisch (Zustand 3), hinter dem Schrank (Zustand 2) oder ist im Käfig, um zu fressen (Zustand 1). Die Ratte wechselt alle 5 Minuten ihren Ort. Ist sie gerade im Käfig, so bleibt sie mit Wahrscheinlichkeit 0,05 dort, mit Wahrscheinlichkeit 0,4 geht sie hinter den Schrank und mit Wahrscheinlichkeit 0,55 unter den Schreibtisch. Ist sie hinter dem Schrank, so bleibt sie mit Wahrscheinlichkeit 0,7 dort, mit Wahrscheinlichkeit 0,2 geht sie unter den Schreibtisch und mit Wahrscheinlichkeit 0,1 geht sie in den Käfig. Ist sie unter dem Schreibtisch, so bleibt sie mit Wahrscheinlichkeit 0,1 dort, mit Wahrscheinlichkeit 0,1 geht sie in den Käfig und mit Wahrscheinlichkeit 0,8 flüchtet sie hinter den Schrank. Das Verhalten der Ratte wird durch die zeilenstochastische Matrix P beschrieben:

P=
\begin{pmatrix}
0{,}05 & 0{,}4 & 0{,}55 \\
0{,}1  & 0{,}7 & 0{,}2  \\
0{,}1  & 0{,}8 & 0{,}1
\end{pmatrix}

Peter lässt nun seine Ratte frei und will wissen, mit welcher Wahrscheinlichkeit sich die Ratte nach 20 Minuten im Käfig befindet. Der Startzustand des Systems ist

x_0=(1; 0; 0)^T

(die Ratte befindet sich mit Wahrscheinlichkeit 1 im Käfig). Der Zustand nach 20 Minuten (nach 4 Zeitschritten) ist dann (gerundet)

x_4^T=x_0^T P^4=(0{,}0952;\ 0{,}6933;\ 0{,}2115)

Die Ratte befindet sich also mit Wahrscheinlichkeit 0,0952 im Käfig.

Peter fährt über das Wochenende in den Urlaub und will danach seine Ratte wieder einfangen. Nun stellt sich die Frage, wo er am besten suchen soll. Da viel Zeit vergangen ist, seit die Ratte freigelassen wurde, ist die Annahme gerechtfertigt, dass sich das System im Gleichgewicht befindet. Gesucht ist daher ein Linkseigenvektor von P bzw. ein Rechtseigenvektor von P^T zum Eigenwert 1. Durch Nachrechnen ergibt sich für den Eigenvektor (gerundet)

x=(0{,}0952;\ 0{,}6926;\ 0{,}2121)^T

Peter sollte also zuerst hinter dem Schrank suchen.

Die Katze und die Maus
 

Gegeben seien fünf nebeneinander liegende Boxen, durchnummeriert von eins bis fünf, und in der ersten Box möge sich eine Katze und in der letzten eine Maus befinden. Nach einer festen Zeit wechseln die Tiere zufällig in eine Nachbarbox. Das makabre Spiel hat ein Ende, wenn die Katze in einer Box auf die Maus trifft. Wir bezeichnen die möglichen Zustände mit (i,j), d.h., die Katze ist in der i-ten und die Maus in der j-ten Box. Wir sehen sofort, dass wenn i gerade (ungerade) ist, j ebenfalls gerade (ungerade) sein muss. Sofort ist auch klar, dass  i\le j gelten muss. Die Markow-Kette, die dieses Spiel beschreibt, hat also die folgenden fünf Zustände:

Der Vektor v gebe an, welcher dieser fünf Zustände vorliegt. Beispielsweise steht v=[1,0,0,0,0]^{T} für den ersten Zustand unserer Auflistung, also (1,3), und v=[0,0,0,0,1]^{T} für den letzten, also das Spielende (egal, in welcher Box).

Die Übergangsmatrix A dazu ist nun


    A = \begin{bmatrix} 0 & 0 & 1/4 & 0 & 0 \\ 
                        0 & 0 & 1/4 & 0 & 0 \\ 
                      1/2 & 1 & 0 & 1/2 & 0 \\ 
                        0 & 0 & 1/4 & 0 & 0 \\ 
                      1/2 & 0 & 1/4 & 1/2 & 1 
\end{bmatrix}.

Wenn wir beispielsweise wie zu Beginn im 2. Zustand v=[0,1,0,0,0]^{T} sind, dann wechseln wir mit Sicherheit in den 3. Zustand v=[0,0,1,0,0]^{T}, also Katze in der zweiten und Maus in der vierten Box. Daher ist in der Übergangsmatrix die Position in der 2. Spalte und 3. Zeile gleich eins.

Von diesem Zustand ausgehend kommen wir nun aber mit 25 % Wahrscheinlichkeit in einen der anderen vier Zustände, daher sind alle Zeilen in der 3. Spalte gleich 1/4 (außer die 3. Zeile – der Zustand kann nicht derselbe bleiben).

Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung:  Jena, den: 21.12. 2023