Loading...
 
PDF Print

Az ML-EM algoritmus az Emissziós Tomográfiában

Az ML-EM algoritmus az Emissziós Tomográfiában

 
Az emissziós tomográfia során gyűjtött yj beütések száma a j. LoR-ban Possion eloszlást követ:
$   \wp \left ( y_{j} \right )=\frac{\left [Ey_{j}  \right ] ^{ y_{j}}e^{-Ey_{j}}}{y_{j}!}

Egyszerűbb, sőt triviális volna az ML becslésünk, ha azt is tudnánk, hogy egy adott LoR-ba érkezett beütések melyik voxelből érkeztek. Egészítsük ki tehát a statisztikai modellünket olyan s adatstruktúrává, ahol a mért adatok a i. LoR-ban kapott beütései felbonthatóak aszerint, hogy melyik voxelből érkezett a beütés:
$ y_{i}=\sum_{m=1}^{M}s_{im}
A mátrix formában felírt egyenletünk ekkor:
$ E\left [s_{im}  \right ]=A_{im}x_{m}

Konstruáljuk meg a teljes adatrendszer sűrűségfüggvényét:
$  \ln \wp\left ( \mathbf{s};\mathbf{x} \right )= \ln \prod_{i=1}^{N}\prod_{j=1}^{M}\frac{\left [s_{im}  \right ] ^{ s_{im}}e^{-Es_{im}}}{Es_{im}!} =\sum_{i}^{N}\sum_{m}^{M}s_{im}\ln \left ( A_{im}x_{m} \right )-A_{im}x_{m}-\ln \left ( s_{im}! \right )(1)

Az E lépés:

Az E-lépés, ahogy a előző fejezetben láttuk:
$  Q\left ( \mathbf{x},\mathbf{x}^{n} \right )=E\left [\wp \left ( \mathbf{s}; \mathbf{x} \right )\mid\mathbf{y} ;\mathbf{x}^{n} ]
Ehhez a várhatóérték-képzéshez meg kell konstruálnunk a következő $ \wp \left ( \mathbf{s} \mid\mathbf{y} ;\mathbf{x}^{n} \right ) sűrűségfüggvényt.
Az yi beütések mindegyike valamilyen pim valószínűséggel tartozik az m. voxelhez, ami az adott voxelekre binomiális eloszlást jelent yj db kísérlettel (pontosabban polinomiális eloszlást, melynek várhatóértéke azonban megegyezik a binomiális eloszlással):
$ p(s_{im}\mid y_{i};\mathbf{x}^{n})=\binom{y_{i}}{s_{im}}p_{im}^{s_{im}}\left ( 1-p_{im} \right )^{y_{i}-s_{im}}

A pim valószínűségeket modellezzük az n. iterációban kapott paraméterbecslésekkel:
$ p_{im}=\frac{A_{im}x_{m}^{n}}{\sum_{m}^{M}A_{im}x_{m}^{n}}
Számoljuk ki (1) várhatóértékét! Az egyenletben csak egyetlen tag függ sim-től és ez is egyszerűen lineárisan. Ekkor a következő várhatóértéket kell tulajdonképpen kiértékelnünk:
$ Es_{im}=y_{i}p_{im}
, mely a binomiális eloszlás alaptulajdonsága.

Az M lépés:

Behelyettesítve nézzük az (1) egyenlet jelent formáját a maximalizáláshoz:
$ \sum_{i}^{N}\sum_{m}^{M}y_{i}p_{im}\ln \left ( A_{im}x_{m} \right )-A_{im}x_{m}-E\ln \left ( s_{im}! \right ) (2)

A jobb oldali utolsó várhatóérték kiszámolására szerencsére nincsen szükségünk, mert csak az előző, n. iterációban kapott xn értékek szerepelenek a várhatóértékben, azaz a maximumkeresésénél nem változó faktor. Vegyük a (2) egyenlet deriváltját a paraméterek xj komponense szerint:
$ \partial _{x_{j}}\sum_{i}^{N}\sum_{m}^{M}y_{i}p_{im}\ln \left ( A_{im}x_{m} \right )-A_{im}x_{m}-E\ln \left ( s_{im}! \right )=0
tehát:
$  \sum_{i}^{N}\sum_{m}^{M}y_{i}p_{im}\frac{1}{A_{im}x_{m}}A_{im}\delta _{jm}-A_{im}\delta _{jm}=0
Az m szerinti szummát elvégezve:
$ \sum_{i}^{N}y_{i}p_{ij}\frac{1}{x_{j}}-A_{ij}=0
Átrendezve és behelyettesítve:
$ x_{j}^{n+1}=\frac{\sum_{i}^{N}y_{i}p_{ij}}{\sum_{i}^{N}A_{ij}}=x_{j}^{n}\frac{1}{\sum_{i}^{N}A_{ij}}\frac{\sum_{i}^{N}y_{i}A_{ij}}{\sum_{m}^{M}A_{im}x_{m}^{n}}

Az iterációs séma tehát a korábbi koncentrációt egy korrekciós szorzófaktorral "javítja" a következő iterációs lépésre. A korrekciós faktor az adott mért adat elosztva a korábbi iterációban született koncentráció-eloszlás hatására létre jöhető beütésszámokkal, mely arányt visszaosztjuk az egyes voxelekbe a rendszermátrix alapján.

Az ML-EM módszer néhány fontos variációjával foglalkozunk a következő fejezetben.

 


Site Language: English

Log in as…