Statistik_HMM

Hidden Markov Modell für Psychologen

Hidden Markov Modell für Psychologen – Teil 1

Komplexe stochastischen Modelle mithilfe von Machine Learning und künstlicher Intelligenz zu modellieren stellt insbesondere für die psychologische Forschung eine interessante Möglichkeit dar. In dieser Beitragsreihe zeigen wir die Entwicklung und Programmierung eines lernfähigen Algorithmus zur Erschließung nicht direkt messbarer (innerpsychischer) Zustände.

Die Psychologie ist eine Wissenschaft, die mit empirischen Methoden menschliches Erleben und Verhalten untersucht, innere und äußere Bedingungen und Ursachen analysiert und zukünftiges Verhalten vorherzusagen versucht.

Häufig ist bei psychologischen Betrachtungen der interessierende (innerpsychische) Zustand nicht direkt beobachtbar und kann nur indirekt geschätzt werden. Ein populäres Beispiel wäre das Schließen auf Depressivität anhand von Symptomen wie vermindertem Antrieb, Schlafstörungen, Appetitlosigkeit usw. Auf die Feinheiten psychologischer Konstrukte soll an dieser Stelle nicht eingegangen werden.

Würfel, Statistik und das Hidden-Markov-Modell

Dem Würfel kommt in der Didaktik der Laplace-Wahrscheinlichkeit traditionell eine große Rolle zu. Diese Tradition wird im Machine Learning aufgegriffen, um das Grundproblem eines Hidden Markov Models (HMM) zu veranschaulichen:

Ein Würfelwerfer befindet sich hinter einem Vorhang. Er hat eine nicht bekannte Anzahl n an Würfeln. Diese Würfel sind manipuliert. Das heißt, die Wahrscheinlichkeit, beispielsweise eine 6 zu würfeln liegt nicht bei 1:6. Wie hoch diese Wahrscheinlichkeit ist, ist nicht bekannt. Auch sind die Wahrscheinlichkeiten bei den Würfeln (mitunter) unterschiedlich – auch das ist nicht bekannt. Der Würfelwerfer entscheidet sich (hinter dem Vorhang) für einen Würfel, wirft und nennt das Ergebnis. Ob er die Wahrheit sagt, ist ebenfalls nicht bekannt. Wir wissen auch nicht, ob er wirklich gewürfelt hat. Der Würfelwerfer hat dann die Wahl, entweder mit dem selben Würfel weiterzumachen, oder einen anderen Würfel zu wählen. Auch dieser Vorgang ist nicht beobachtbar (Vorhang). Die einzige Information, die uns als Beobachter zur Verfügung steht, ist die Zahl, die der Würfelwerfer jeweils ruft.

Die interessante Information ist, welchen Würfel der Würfelwerfer zu welchem Zeitpunkt jeweils in der Hand hat. Diese Information entspricht dem nicht direkt beobachtbaren (innerpsychischen) Zustand, in dem sich das System befindet.

Das HMM bietet zusammen mit dem Forward-Backward-Algorithmus, dem Viterbi-Algorithmus und dem Baum-Welch-Algorithmus eine Möglichkeit, ein stochastisches Modell dieses Systems zu modellieren. Da es sich beim Baum-Welch-Algorithmus um einen iterativen Algorithmus handelt, verbessert sich die Modellgüte mit jedem Durchlauf. Das Modell passt sich immer besser an das System an. In einem psychologischen Kontext bedeutet dies eine fortlaufende Anpassung an eine Versuchsperson.

Das HMM im Detail

Das HMM wird beschrieben als 5-Tupel:

\( HMM= \langle S, V, A, B, \pi \rangle \)

Das erste Element beschreibt die Topologie des Modells. Im Würfelbeispiel entspräche die Topologie der Anzahl der Würfel:

\( S=\{s_{1},…,s_{N}\} \)

Das nächste Element beschreibt das Ausgabealphabet. Es enthält die möglichen Ausgaben. Im Würfelbeispiel wären die Zahlen 1 bis 6 enthalten. V ist ein Vektor:

\( V=\{v_{1},…,v_{M}\} \)

Die Matrix A beschreibt die Übergangswahrscheinlichkeiten. Im Würfelbeispiel wären es die Wahrscheinlichkeiten von einem Würfel zu einem anderen zu wechseln:

\( A=(a_{ij}) \)  mit  \( a_{ij}=P(q_{t+1}=S_{j}|q_{t}=S_{i}) \)

Die Matrix B beschreibt die Emissionswahrscheinlichkeiten. Im Würfelbeispiel wären es die Wahrscheinlich für eine bestimmte Augenzahl:

\( B=\{b_{j}(k)\} \)  mit  \( b_{j}(k)=P(v_{k}|q_{t}=S_{j}), 1\leq j \leq, 1 \leq k \leq M \)

\( \pi \) beschreibt die Anfangswahrscheinlichkeiten. Im Würfelbeispiel entspräche es der Wahrscheinlich der einzelnen Würfel, für eine Wurf genommen zu werden:

\( \pi=\{\pi_{i}\} \)  mit  \( \pi_{i}=P(q_{i}=S_{i}),1 \leq i \leq N \)

Die Anpassung des HMM an ein bestimmtes System lässt sich in drei Probleme aufteilen:

  • das Evaluationsproblem
  • das Dekodierungsproblem
  • das Training

Im nächsten Teil dieser Beitragsreihe werden diese Probleme mathematisch formuliert, das Grundprinzip der Markov-Kette dargestellt, die HMM-Trellis erläutert sowie der Forward-Algorithmus eingeführt.

0 Kommentare

Dein Kommentar

Want to join the discussion?
Feel free to contribute!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.