Az MI-alapú orvostechnikai eszközök árnyoldalai
Egyre több adat utal arra, hogy a „technológiai ugrás” nem mentes a súlyos, esetenként irreverzibilis betegkárosodásoktól, írja Az Üzlet.
A mesterséges intelligencia (MI) integrálása az orvostechnikai eszközökbe az utóbbi évek egyik legmeghatározóbb technológiai trendje. A diagnosztikai pontosság növelése, a sebészeti precízió fokozása és az orvosi döntéshozatal támogatása ígéretes jövőképet fest a klinikum számára. Azonban egyre több adat utal arra, hogy ez a „technológiai ugrás” nem mentes a súlyos, esetenként irreverzibilis betegkárosodásoktól. A legfontosabb aggályokat és tapasztalatokat Az Üzlet foglalta össze.
Az egyik legfelkavaróbb példa az Acclarent (Johnson & Johnson csoporthoz tartozó) által fejlesztett TruDi navigációs rendszer. Az eszközt fül-orr-gégészeti beavatkozások során alkalmazzák, ahol a milliméternyi pontosságnak életfontosságú jelentősége van. Bár a rendszert 2021-ben MI-alapú algoritmusokkal frissítették a hatékonyság növelése érdekében, az FDA adatbázisa azóta a meghibásodások drasztikus növekedését mutatja.
A korábbi elszigetelt esetekkel szemben mára több mint száz bejelentés érkezett. A panaszok szerint az MI-vel támogatott szoftver pontatlanul jelezte ki a műszerek helyzetét a páciens koponyáján belül. Ez a hiba olyn kritikus szövődményekhez vezetett, mint koponyaalapi sérülések, liquor-csorgás, és súlyos érsérülések okozta iatrogén stroke.
Bár a gyártó tagadja a közvetlen ok-okozati összefüggést, az eset rávilágít arra, hogy a sebészi magabiztosságot tápláló MI-segédlet hibája katasztrofális következményekkel járhat.
Nem egyedi esetről van szó. Jelenleg több mint 1350 olyan orvostechnikai eszköz rendelkezik FDA-engedéllyel, amely valamilyen MI-megoldást használ – ez a szám 2022 óta megduplázódott. A hibajelentések spektruma széles. MI-támogatott szívmonitoroktól, amelyek képtelenek voltak detektálni az életveszélyes ritmuszavarokat, ultrahangos rendszerekig, amelyek tévesen azonosítottak magzati testrészeket, félrevezetve ezzel a diagnosztát. A JAMA Health Forum kutatása szerint 60 vizsgált MI-eszköznél 182 visszahívást regisztráltak. Különösen aggasztó, hogy ezen eszközök közel fele a piacra kerülést követő első éven belül elbukott a biztonsági teszteken, ami jóval magasabb arány, mint a hagyományos technológiák esetében.
A szakértők szerint az FDA és más szabályozó hatóságok nehezen tartanak lépést az MI-eszközök áradatával. A jelenlegi engedélyezési protokollok sok esetben nem írnak elő olyan kiterjedt klinikai tesztelést, amely feltárná az önállóan fejlődő vagy „tanuló” algoritmusok hosszú távú kockázatait.
A kritikusok szerint a "black box" (fekete doboz) effektus – vagyis az, hogy gyakran maguk a fejlesztők sem látják át pontosan, mi alapján hoz döntést az algoritmus egy adott klinikai helyzetben – alapjaiban rengeti meg a transzparencia és a felelősségvállalás elvét. Ha az orvos egy MI-segédletre támaszkodva hibázik, a felelősség kérdése (gyártói szoftverhiba vs. orvosi mulasztás) jogi és etikai útvesztőbe torkollik.
A mesterséges intelligencia kétségtelenül a gyógyítás katalizátora lehet, de a jelenlegi adatok óvatosságra intenek. A betegbiztonság megköveteli a szigorúbb, prospektív klinikai vizsgálatokat az MI-alapú eszközök piacra kerülése előtt, az átláthatóbb hibajelentési rendszereket, valamint az orvosok folyamatos képzését az MI korlátainak felismerésére.
Az innováció iránti vágy nem írhatja felül a „nil nocere” alapelvét. Amíg a szabályozási környezet nem éri utol a technológiai fejlődést, a klinikusoknak kritikus távolságtartással és fokozott éberséggel kell kezelniük az "intelligens" asszisztensek javaslatait.



