Loading...
 
PDF Print

Statisztikai alapú képrekonstrukciós stratégiák

Egészítsük ki korábbi egyenletünket azzal a megfontolással, hogy lineáris egyenletrendszerünk csak, mint a mért adatok, mint statisztikai mennyiségek várható értékére ($ E ) igaz:
$E\left ( \mathbf{y}  \right )=\mathbf{A}\mathbf{x}
tehát rendszerünk bemenő információi, a mérési adatok nem "kőbe vésett" egzakt értékek, hanem még ha zajjal egyáltalán nem is terhelt rendszerről van szó, több értéket is "legálisan" felvehetnek úgy, hogy az x ismeretlenek értéke állandó. Az ismeretleneket a mért értékek terébe vetítő operátor lineáritását értelmezhetjük statisztikai függetlenségnek is, pl. emissziós tomográfia esetén az egyes voxelekben bekövetkező radioaktív bomlások függetlenek a szomszéd voxel bomlásaitól, transzmissziós tomográfia esetén ez a spektrális változás figyelmen kívül hagyásig igaz csak. Általánosítsuk modellünket úgy, hogy a mért adatokat és az ismeretleneket egy valószínűség-sűrűség függvény köti össze olyan értelemben, hogy egy adott x mellett milyen valószínűség-eloszlással kapunk egy adott y kimenetelt; jelöljük ezt a valószínűség-sűrűség függvényt $\wp \left ( \mathbf{y};\mathbf{x} \right )-vel. Amennyiben x-et is valváltozónak tekintjük, jelölésünk $\wp \left ( \mathbf{y}\mid\mathbf{x} \right ) lenne.

A Maximum-Likelihood becslés

A statisztikai becsléselmélet alapvető technikája a Maximum-Likelihood becslés, amikor keressük azt az x paramétervektort, ahol az adott mérési eredmény maximális valószínűséggel fordulna elő, azaz becslésünk a következő lenne:
$ \mathbf{\widehat{x}}=\arg \underset{\mathbf{x}}{\max} \wp \left ( \mathbf{y}\mid \mathbf{x} \right )

A mérhető fizikai mennyiségek döntő hányada az exponenciális eloszláscsaládból származik, ezért a $\wp \left ( \mathbf{y}\mid\mathbf{x} \right ) likelihood-függvény logaritmusára (log-likelihood-függvény) fogalmazzák meg a maximalizációs kritériumot.

A Maximum-Likelihood becslés elmélete és gyakorlata alapvető matematikai technika, melyet itt nem kívánunk részletesen bemutatni, mindössze egy példát közlünk az ismétlés kedvéért.

Példa külön oldalon) Maximum-Likelihood becslésre.

Bayes becslés és a Maximum Aposteriori kritérium

 
Tekintsük most a modell x paramétereit is valószínűségi változóknak, és tekintsük annak a valószínűségét, hogy az y mért adatokat kaptunk, mi volna a sűrűségfüggvénye a paramétereknek:
$\wp \left ( \mathbf{x}\mid\mathbf{y} \right )
A Bayes-becslés ezt a valószínűség-sűrűség függvényt maximalizálja, ezzel ad választ arra a kérdésre, hogy mi volna a legvalószínűbb paraméter-eloszlás, feltéve a mért értékeket. Ezt a valószínűséget tekinthetjük az aposteriori, azaz a mérés utáni eloszlásfüggvénynek, a módszer a Maximum Aposteriori (MAP) elnevezést kapta. Matematikai szimbólumokban a Bayes-tétel felhasználásával:

$ \mathbf{\widehat{x}}=\arg \underset{\mathbf{x}}{\max} \wp \left ( \mathbf{x}\mid \mathbf{y} \right )=\arg \underset{\mathbf{x}}{\max} \frac{\wp \left ( \mathbf{y}\mid \mathbf{x} \right )}{\wp \left ( \mathbf{y} \right )}\wp \left ( \mathbf{x} \right )=\arg \underset{\mathbf{x}}{\max}\left [ \ln \wp \left ( \mathbf{y}\mid \mathbf{x} \right )+\ln \wp \left ( \mathbf{x} \right )  \right ]

Az első maximalizációs tag a Maximum-Likelihood becslésből már ismert kifejezés, a második a paraméterek sűrűségfüggvényétől függ, ez tartalmazhatja a paramétereket illető előzetes, apriori tudásunkat, magát a függvényt pedig angol terminológiával priornak nevezehetjük. Értelmezése abban áll, hogy a paraméterek sem vehetnek föl tetszőleges értéket, hiszen például az aktivitás-koncentráció értéke nem haladhatja meg a beadott radiofarmakon aktivitás-koncentrációját, vagy a vizsgált objektum (pl. agy) megszabja az aktivitás lokalizáltságát. A priorban megfogalmazható előzetes tudásunkat a paraméter-eloszlásokról nagyban befolyásolja az, hogy mennyire sikerül matematizálni. A gyakorlatban a priorok egészen egyszerű feltételeket tartalmazhatnak, pl. a rekonstruálandó eloszlás folytonosságát ill. simaságát jellemzik. Tekintve az ln függvény gyakori alkalmazását, a priorokat exponenciális formában fogalmazzák meg, ezt Gibbs-priornak hívjuk:
$ \wp \left ( \mathbf{x} \right )=e^{-\gamma U\left ( \mathbf{x} \right )}
Ha például előzetes tudásunk arra vonatkozik, hogy ha egy voxelben van rekonstruált értékünk, akkor a szomszédai értéke sem térhet el ettől, az U(x) potenciál lehet arányos a voxelértékek átlagos távolságával a kérdéses voxelértéktől.

Maximum-Likelihood Expectation Maximisation (ML-EM algoritmus)

A Maximum Likelihood módszer bővítését jelenti a Maximum-Likelihood Expectation Maximisation módszer, mely a modellezés kiterjesztését jelenti olyan virtuális valószínűségi változók bevonásával, melyek a modellezést pontosabbá, a maximalizációs eljárást egyszerűbbé teszik. Az ML-EM algoritmus is alkalmazhat priorokat, ekkor a fentiekkel analógiában MAP-EM módszernek hívják.
Mivel az ML-EM eljárás alapvető eszköze az iteratív orvosi képalkotásnak, bővebben foglalkozunk vele a következő fejezetben.


Site Language: English

Log in as…