Az ML-EM algoritmus
A Maximum-Likelihood Expectation Maximisation (ML-EM módszer)
Az ML-EM módszer lényege, hogy a mért értékek együttes sűrűségfüggvénye nem tartalmazza a - tegyük fel - kimaradt mérések sűrűségfüggvényét, melyek mégis döntően befolyásolják a becslést. Ezt a hiányzó információt iteratívan próbáljuk közelíteni, mely során minden iterációs lépésben elvégezzük a ML-becslést is. Gondolhatunk például arra, hogy a mért adatok egymástól teljesen függetlenek, és teljesen független paramétercsoportokkal állnak összefüggésben. Ha tudnánk, hogy melyik adat melyik csoportba tartozik, sokkal pontosabb ML becslést végezhetnék ezeken a csoportokon. Az ML-EM módszer E lépése megpróbálja ennek a hiányzó paraméternek a hatását figyelembe venni anélkül, hogy konkrétan ezekre az értékekre is becslést szolgáltatna.
Tegyük fel, hogy a mért y adatok kiegészíthetőek egy s adatvektorrá, mely tartalmazza a hiányzó információkat. Ekkor felállítható egy statisztikai modell a következő sűrűségfüggvénnyel:
Az ML-EM módszer a következő lépések ismétlésével végzi az iterációt:
1) A módszer E (Expectation) lépése
Az n. iterációban kapott xn paraméterbecslés alapján a staisztikai modellünk segítségével kiszámoljuk a likelihood-függvényünket a következő feltételes várhatóértékkel minden lehetséges x paraméterre:
2) A módszer M (Maximization) lépése
Az előállt likelihood-függvénnyel hagyományos ML lépést végzünk:
Az ML-EM módszer konvergenciája
Felmerül a kérdés: ha a hiányzó adatok nem mérhetőek, hogyan nyerünk plusz információt, mellyel pontosíthatjuk a becslésünket? A válasz a modellezésben magában van, a módszerrel a statisztikai modell árnyalása ad módot a jobb becslésre. Be kell azonban látnunk, hogy ez a plusz információ legalábbis nem ront a korábbi becslési eljárásunkon. Ehhez írjuk fel a teljes adathalmazra vonatkozó sűrűségfüggvényt a Bayes-tétel segítségéevel:
A log-likelihood függvény tehát kifejezhető:
Nézzük meg, hogy hogyan változik a log-likelihood-függvény értéke az E és M lépések elvégzése után, ahol a várható érték az s valószínűségi változóra értendő:
A baloldal s-et nem tartlamazza, tehát a várható értéke önmaga. Nézzük most meg, hogy az n. és n+1. iterációs lépés között a log-likelihood-függvény hogyan változik, ha behelyettesítjük a becsült paramétereket:
Az algoritmus M lépése a tagot, amennyiben sikeresen maximalizálta, akkor a behelyettesített értékek különbsége pozitív. A második tag várható értékét becsülhetjük a következő egyenlőtlenség felhasználásával:
tehát:
Azaz az E és M lépések hatására R változása negatív.
Beláttuk tehát, hogy
Ezzel beláttuk, hogy az algoritmus legalábbis nem ront az egyszerű ML algoritmuson.
A következő fejezeteben az ML-EM algoritmus alkalmazását tekintjük át az Emissziós Tomográfiában.