Vektorfunktion mit Randbed. < partielle < Differentialgl. < Analysis < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) reagiert/warte auf Reaktion | Datum: | 16:06 Mi 24.01.2018 | Autor: | Petite |
Aufgabe | The first term [...] becomes
[mm]\left[\dots\right]
= \sum_{i=1}^N \left(\log \pi_i \cdot p(O, q_0 = i \,|\, \lambda')\right)
[/mm]
since by selecting all [mm]q\in Q
[/mm], we are simply repeatedly selecting the values of [mm]q_0[/mm], so the right hand side is just the marginal expression for for time
[mm] t=0 [/mm]. Adding the Lagrange multiplier [mm] \gamma [/mm], using the constraint that [mm]\sum_{i}\pi_i = 1[/mm], and setting the derivative equal to zero, we get:
[mm]\frac{\partial}{\partial \pi_i}\left
\sum_{i=1}^N \log \pi_i p(O, q_0=i \,|\, \lambda')
+ \gamma \left(\sum_{i=1}^N \pi_i - 1 \right)
\right
=0[/mm]
Taking the derivative, summing over [mm]i[/mm]to get [mm]\gamma[/mm], and solving for [mm]\pi_i[/mm] we get:
[mm]\pi_i = \frac{P(O, q_0=i \,|\, \lambda^'}{P(O \,|\, \lambda')}[/mm]
|
Hallo.
Ich beschäftige mich derzeit mit dem Paper [1] und komme bei obigen Stelle nicht weiter. Ich weiß nicht, wie ich von der Ableitung zu [mm]\pi_i[/mm] komme.
Wie löse ich die Ableitung erstmal überhaupt auf? Ist die folgende Gleichung korrekt?
[mm]\frac{\partial}{\partial \pi_i}\left
\sum_{i=1}^N \log \pi_i p(O, q_0=i \,|\, \lambda')
+ \gamma \left(\sum_{i=1}^N \pi_i - 1 \right)
\right \\
= \sum_{i=1}^N \left(
\frac{\partial \log \pi_i}{\partial \pi_i}p(O, q_ 0=i \,|\, \lambda')
\right)
+ \gamma\sum_{i=1}^n 1[/mm]
Vielen Dank schonmal im Voraus.
[1] A. Bilmes, J.:
A Gentle Tutorial of the EM Algorithm and its Application to Parameter Estimation for Gaussian Mixture and Hidden Markov Models;
Technical Report ICSI-TR-97-021, University of Berkeley, 1998, 4
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:16 Mi 24.01.2018 | Autor: | Petite |
Ich habe inzwischen selber meinen Fehler gefunden. Lag in der Fehlinterpretation der partiellen Ableitung:
[mm]&\frac{\partial}{\partial \pi_i}\left \sum_{i=1}^N \log \pi_i p(O, q_0=i \,|\, \lambda') + \gamma \left(\sum_{i=1}^N \pi_i - 1 \right) \right \\
= &\frac{\partial \log \pi_i}{\partial \pi_i} \cdot p(O, q_ 0=i \,|\, \lambda') + \gamma\sum_{i=1}^n 1 \\
= &\frac{p(O, q_ 0=i \,|\, \lambda')}{\pi_i \cdot \ln} + \gamma[/mm]
Der Rest ist dann wirklich Anleitung aus dem Paper...
Wenn ich für den log den log-naturalis wähle komme ich auf:
Durch umstellen komme ich auf [mm]\gamma \cdot \pi_i = - p(O, q_ 0=i \,|\, \lambda')[/mm]
Das ganze aufsummiert über i ergibt:
[mm]\gamma = \sum_{i=1}^n(\gamma \cdot \pi_i) = - \sum_{i=1}^n p(O, q_ 0=i \,|\, \lambda')[/mm]
Setze ich dies jetzt wieder in die Ableitung ein komme ich auf:
[mm]0
= &\frac{p(O, q_ 0=i \,|\, \lambda')}{\pi_i} - \sum_{i=1}^n p(O, q_ 0=i \,|\, \lambda')[/mm]
Stelle ich nach [mm]\pi_i[/mm] um komme ich auf das gewünschte Ergebnis:
[mm]\pi_i =
\frac{P(O, q_0=i \,|\, \lambda^')}{\sum_{i=1}^n P(O, q_0=i \,|\, \lambda^')}
[/mm]
[mm]\Rightarrow
\pi_i =
\frac{P(O, q_0=i \,|\, \lambda^')}{P(O \,|\, \lambda^')}
[/mm]
|
|
|
|