Nem egy Dr. House, de azért segíthet a kórfelismerésben
Az OpenAI generatív algoritmusával medikusokat és rezidenseket igyekeznek jobb orvossá képezni egy bostoni kórházban, írja a BITPORT.
A generatív MI körül támadt hírverést látva nem is volt kérdés, hogy újabb és újabb ötletek születnek arra, miként lehetne az emberiség javára és egészségének megőrzésére fordítani az egyre fejlettebb képességekkel rendelkező algoritmusokat, írja a lap, jelezve: a New York Times nemrégiben egy ilyen kísérletről számolt be, amely a bostoni Beth Israel Deaconess oktatókórházban zajlik.
Az OpenAI legfrissebb szövegalkotó modelljét, a GPT-4-et itt arra használják, hogy az orvostanhallgatókat és a már munkába álló rezidenseket megtanítsák "orvosként gondolkodni".
Egy gyakorlati óra során a medikusok és a rezidensek egy duzzadt térddel bajlódó valódi páciens esetének adatait kapták meg (beteg személyes adatai, pontos tünetek, panaszok stb.), ami alapján csoportokra bontva kellett kitalálniuk, milyen betegség okozza a problémát. Az egyik csoport a GPT-4-et gyakorlatilag Google-keresőként használta. A chatbot erre közölte a lehetséges diagnózisok listáját, beleértve a traumát is. Amikor azonban a csoport tagjai megkérték, hogy magyarázza meg a válaszát, a bot mindössze azt tudta felhozni, hogy "a trauma a térdsérülések gyakori oka".
Egy másik csoport lehetséges hipotéziseket gondolt ki, és megkérte a GPT-4-et, hogy ellenőrizze őket. A chatbot listája nagyjából egybevágott a csoportéval: fertőzések, beleértve a Lyme-kórt; ízületi gyulladás, beleértve a köszvényt; és itt is felbukkant a trauma. A kísérletből az oktatók azt a következtetést vonták le, hogy ugyan a chatbot nem követett el baklövést, igazából nem is tudta támogatni a döntéshozatalt. Ennek okát pedig abban látták, hogy a medikusok keresőként fordultak a GPT-4-hez. A helyes megközelítés az, mintha tényleg egy kollégát kérdeznének meg az esetről. Ennek érdekében az algoritmussal kezdéskor tudatosítani kell, hogy egy esetet vizsgáló orvosként nyilvánuljon meg. Ezután fel kell sorolniuk a páciens tüneteit, mielőtt diagnózist kérnének, és a bot érvelésével kapcsolatos kérdésekkel folytatnák. Pontosan úgy, ahogyan egy orvos kollégával tennék.
Az oktatók szerint döntő fontosságú, hogy felismerjük: a chatbotok hibázhatnak, olyan válaszokat adhatnak, amelyeknek nincs valóságalapjuk.
A teljes információt ITT olvashatja