hirdetés

Miért buknak el a nyelvi modellek az orvosi dezinformáció kiszűrésekor?

A nyelvi modellek hajlamosak kritika nélkül elfogadni a hamis egészségügyi állításokat, amennyiben azok orvosi stílusban íródnak, írja a Qubit.

Lancet Digital Health és a Nature Medicine legfrissebb tanulmányaiban a kutatók figyelmeztetnek, hogy a chatbotok magabiztossága ál-szakértelmet sugall, ami súlyos betegbiztonsági kockázatokat rejt.

A vizsgálatok során húsz különböző modellt – köztük a ChatGPT-t és orvosi fókuszú rendszereket – teszteltek 3,4 millió üzenettel. Az eredmények rávilágítottak egy kritikus strukturális hibára: míg a hétköznapi nyelven megfogalmazott tévhitekkel szemben a modellek 90%-ban szkeptikusak maradtak, addig klinikai nyelvezetre átültetve ugyanazokat a hamis állításokat már 46%-ban valósnak fogadták el. Az algoritmusok tehát a szöveg stílusát azonosítják a hitelességgel, így olyan abszurd és veszélyes tanácsokat is jóváhagytak, mint a fokhagyma rektális alkalmazása immunerősítésre, vagy a hideg tej fogyasztása nyelőcső-vérzés esetén.

A szakértők szerint a chatbotok alapvető problémája a differenciáldiagnosztikai szemlélet hiánya. Míg egy orvos bizonytalanság esetén további vizsgálatokat rendel el, az AI-modellek a hibás válaszokat is ugyanolyan autoriter módon közlik, mint a helyeseket. A Nature Medicine tanulmánya hozzáteszi: a chatbotok jelenleg nem nyújtanak érdemben több segítséget az egészségügyi döntéshozatalban, mint egy hagyományos internetes keresés, mivel a laikus felhasználók nem képesek kiszűrni a válaszokba keveredő szakmai tévedéseket, írja a Qubit.

(forrás: Qubit)
Olvasói vélemény: 0,0 / 10
Értékelés:
A cikk értékeléséhez, kérjük először jelentkezzen be!