hirdetés

Forradalmat ígértek, de egyelőre hibát hibára halmoznak...

Az AI-jal kiegészített orvostechnikai eszközök, AI-alapú egészségügyi tanácsadást ígérő alkalmazások és a százmilliók által használt chatbotok sokszor a vártnál rosszabbul teljesítenek, vagy egyenesen komoly kockázatokat rejtenek, írja a Qubit.

Nem nagyon telik el hónap úgy, hogy ne történne valamilyen jelentős áttörés a mesterséges intelligencia (AI) területén: a legújabb AI-modellek az elmúlt hetekben már komplex matematikai problémákat oldanak meg és elképesztően jól programoznak, miközben specializált AI-algoritmusok egyre hatékonyabbak a szervezetünkben zajló molekuláris kölcsönhatások modellezésében, és ezáltal új gyógyszerek és terápiák tervezésében.

A Reuters február elején megjelent tényfeltáró cikkében az AI-jal felruházott orvostechnikai eszközök megbízhatóságának járt utána, és amit talált, az finoman szólva sem megnyugtató. Ott van például annak a sebészek munkáját segítő orvostechnikai eszköznek a története, amelynek szoftverét 2021-ben egy gépi tanulási algoritmussal turbózták föl – amit akkor az amerikai egészségügyi óriáscég, a Johnson & Johnson nagy előrelépésként igyekezett eladni. A TruDi Navigációs Rendszernek nevezett berendezés a műtét során egy kijelzőn több nézetből mutatja meg a sebésznek az általa használt eszköz helyzetét a páciens testén belül, ezzel segítve a krónikus arcüreggyulladás kezelését célzó műtéteket, írja a lap, jelezve: ekkor a berendezés már három éve elérhető volt a piacon, ami alatt az amerikai Élelmiszer- és Gyógyszerfelügyeleti Hatóság (FDA) hét, nem megerősített bejelentést kapott a meghibásodásáról, valamint egy további esetről, amelynek során egy páciens megsérült. Mióta viszont a TruDi Navigációs Rendszert gépi tanulási algoritmussal ruházták fel, legalább száz meghibásodásról és nemkívánatos eseményről, valamint 10 páciens sérüléséről érkezett bejelentés a hatóságnak.

Ezek többsége a vádak szerint abból fakadt, hogy a rendszer félreinformálhatta a sebészt a sebészeti eszközök pontos helyzetéről, miközben ők beavatkozásokat végeztek a betegeken. Egy esetben a beteg orrából a jelentés szerint agy-gerincvelői folyadék kezdett folyni, egy másik esetben pedig a sebész tévedésből átszúrta a beteg koponyaalapját.

A Reuters szerint az FDA jelentései nem elég részletesek ahhoz, hogy kiderüljön, mekkora szerepe volt ezekben a műtéti hibákban a mesterséges intelligenciának. De két páciens, akiknél elmondásuk szerint a beavatkozás következtében agyvérzés alakult ki, pert indítottak, azt állítva, hogy sérüléseikhez hozzájárult a TruDi AI-rendszere.

A teljes cikk előfizetéssel

(forrás: Qubit)
Olvasói vélemény: 0,0 / 10
Értékelés:
A cikk értékeléséhez, kérjük először jelentkezzen be!