A mesterséges intelligenciáról sokáig úgy beszéltünk az egészségügyben, mint ami gyorsabbá, pontosabbá és hatékonyabbá teheti a diagnosztikát. Most viszont megjelent az érem másik oldala is: már nemcsak az a kérdés, hogy az AI segít-e felismerni a betegségeket, hanem az is, hogy képesek vagyunk-e felismerni, amikor maga az AI hamisítja meg a valóságot. Egy friss, a Radiology folyóiratban megjelent kutatás szerint AI-val generált, hamis röntgenképek radiológusokat és más AI-rendszereket is meg tudtak téveszteni. A Reuters erről úgy számolt be, mint a diagnosztikai bizalom új korszakhatáráról. (Reuters)
A vizsgálatban 17 radiológus vett részt 12 intézményből, hat országból. Összesen 264 röntgenképet értékeltek, amelyeknek nagyjából a fele valódi volt, a másik fele pedig mesterségesen előállított. Az első, talán legijesztőbb eredmény: amikor az orvosok nem tudták, hogy hamis képek is vannak a mintában, csak 41 százalékuk jelezte spontán, hogy valami mesterséges eredetű lehet a felvételek között. Amikor már tudták, hogy deepfake képek is szerepelnek a sorozatban, az elkülönítési pontosságuk javult, de még így sem lett tökéletes: a GPT-4o által generált képeknél átlagosan 75 százalékos, egy másik modell, a RoentGen által létrehozott mellkasi röntgenképeknél 70 százalékos pontosságot értek el. (PubMed)
Ez azt jelenti, hogy a kérdés már nem sci-fi. Nem arról beszélünk, hogy egyszer majd talán lehet hamis orvosi képeket készíteni, hanem arról, hogy ez a technológia már itt van, és bizonyos körülmények között szakembereket is képes összezavarni. A tanulmány szerint a radiológusok tapasztalati szintje önmagában nem garantált jobb védelmet: nem találtak összefüggést az évek száma és a deepfake-felismerés pontossága között. (PubMed)
A kutatás másik nyugtalanító része az volt, hogy nemcsak embereket, hanem multimodális AI-modelleket is teszteltek. A vizsgált rendszerek között szerepelt a GPT-4o, a GPT-5, a Gemini 2.5 Pro és a Llama 4 Maverick is. Egyik modell sem tudta hibátlanul kiszúrni az összes mesterséges képet. A teljesítményük modelltől és képkészlettől függően nagyjából 56–85 százalék, illetve egy másik adatsornál 52–89 százalék között mozgott. Vagyis az AI nemcsak képes hamis egészségügyi képeket előállítani, hanem egy másik AI-ra sem lehet automatikusan rábízni, hogy biztosan kiszúrja a csalást. (Reuters)
Ez persze nem azt jelenti, hogy holnaptól minden kórházi röntgenfelvétel gyanús. A vizsgálat kontrollált kutatási környezetben zajlott, és nem azt bizonyítja, hogy a mindennapi egészségügy máris tömegesen fertőzött hamis képekkel. Inkább arra figyelmeztet, hogy a digitális diagnosztika sérülékenyebb, mint gondoltuk. Ha egy rendszerbe egyszer bekerül egy hihető, de hamis orvosi kép, annak jogi, biztosítási, kiberbiztonsági és betegbiztonsági következményei is lehetnek. A szerzők külön felvetették például a csalárd kártérítési ügyeket, illetve azt a kockázatot, hogy egy támadó manipulált képekkel zavarhatná meg a betegnyilvántartást vagy a diagnózist. (Reuters)
Ami különösen érdekes, hogy a kutatók bizonyos visszatérő jeleket is azonosítottak a hamis képeken: túl tökéletes szimmetria, túlságosan egyenletes zajmintázat, természetellenesen sima csontfelszínek, túl rendezett lágyrész-textúrák. Magyarán: a gép sokszor nem a valóság kaotikusságát reprodukálja, hanem egy „túl szép” orvosi képet gyárt. Ez ma még kapaszkodó lehet a szakembereknek, de ahogy az AI-modellek fejlődnek, ez az előny gyorsan elolvadhat. (PubMed)
A valódi kérdés tehát nem az, hogy szabad-e AI-t használni az egészségügyben. Erre a válasz alighanem az, hogy igen, mert túl sok előnye van a képelemzésben, szűrésben, adminisztrációban és döntéstámogatásban. A valódi kérdés az, hogy milyen védőkorlátokat építünk köré. A tanulmány és az RSNA összefoglalója is olyan megoldásokat említ, mint a láthatatlan vízjelezés, a képrögzítéshez kötött kriptográfiai aláírások, valamint a radiológusok célzott képzése a deepfake-ek felismerésére. (PubMed)
Az egész történet azért ennyire erős, mert a röntgenképhez ösztönösen még mindig valamiféle objektív igazságot társítunk. Ha valamit „a képen is látni lehet”, azt hajlamosak vagyunk megkérdőjelezhetetlennek tekinteni. Ez a kutatás viszont azt üzeni: a jövő diagnosztikájában már nemcsak a betegséget kell felismerni, hanem magát a képet is hitelesíteni kell. A digitális orvoslás korszakában a bizalom többé nem adottság, hanem külön biztosítandó infrastruktúra.
A technológia tehát nem feltétlenül teszi kevésbé megbízhatóvá az orvoslást – de arra biztosan rákényszerít minket, hogy újradefiniáljuk, mit jelent a bizonyíték. És ez már nemcsak tudományos kérdés, hanem nagyon is emberi: amikor egy lelet alapján döntünk félelemről, kezelésről vagy épp műtétről, biztosak akarunk lenni benne, hogy nem egy meggyőző hazugságot nézünk.
Az ACM Wallet Gentleman Club a modern férfiak világa: stílus, gondolkodásmód, praktikus ötletek és mindennapi elegancia egy helyen. Kövess minket Facebookon és Instagramon, és tarts velünk a következő cikkeknél is.
