hirdetés
hirdetés

SINGER JÚLIA cikkei

  #1
2008-10-01 00:00:00

„Bocsánatot kérek, van-e aktuálisabb téma az influenzánál? A fejed fáj, a hátad fáj, a gyomrod fáj, és fáj a májad és veséd, és prüszkölsz és köhögsz és köhögsz – nem érzed mind e fájdalmakban, felbőszülve és kétségbeesve, tested lázadását, a forradalmat, amit csak ellenforradalommal, ellenlázadással, a lázzal tudsz valahogy féken tartani... ...S mit neked az ellenvetés, hogy kívülről kapott járvány, fertőző bacilus okozza? Ezek a bacilusok, hidd el nekem, fizetett ügynökei csak a test világforradalmának, semmit se tehetnének, ha nagyravágyó és ellenséges szerveid nem fogadnák őket szívesen, abban a reményben, hogy a segítségük révén hatalomhoz jutnak, ledöntik trónjáról az Agyvelőt, a központi és központosító idegrendszert, s szindikalista tébollyal szalagszervezetekké bomolva szét, új állatfajtákkal népesítik be a világot?”

(Karinthy Frigyes: Lázadó test)

  #2
2008-08-01 00:00:00
Sorozatunk egy korábbi részében (Konferenciák ideje; Medical Tribune 2007/19. szám, szeptember 27; 12. oldal) már említettük, hogy a klinikai vizsgálatok klaszszikus elmélete szerint az eredményekből levont következtetés csak akkor meggyőző és megbízható, ha a vizsgálat minden apró részlete előre rögzített (az ún. protokollban). Ha például menet közben megváltoztatják az elsődleges hatékonysági mutatót, akkor joggal merül fel a gyanú, hogy a vizsgálat tervezői az időközi eredményeket látva döntöttek egy kedvezőbb forgatókönyv mellett. Ez pedig megnöveli az első fajta hiba valószínűségét (A fogyasztó kockázata; Medical Tribune 2005/4. szám, 14. oldal).
  A teljes rugalmatlanságnak több hátránya is van. Esetleg túl sok beteg részesül a kevésbé hatásos kezelésben (hiszen a vizsgálat közben nyert információk nem befolyásolják a vizsgálat menetét), a jobbnak bizonyuló gyógyszer pedig később kerül piacra. Vagy épp ellenkezőleg, tévesen becsülik az elemszámot, és a túl kicsi mintaelemszám miatt az eredmény nem lesz statisztikailag szignifikáns. Ilyenkor nem lehet „kiegészíteni” az adatokat még néhány beteg beválasztásával, hanem a teljes vizsgálatot meg kell ismételni. Az is lehet, hogy a gyógyszer a betegeknek csak egy alcsoportjában hatékony, vagyis érdemes lenne a bevonási feltételeket szűkíteni.
  Érthető tehát, hogy a kutatók egyre gyakrabban szeretnék rugalmas, változtatható elrendezésű klinikai vizsgálatok (ún. adaptív vizsgálatok) tervét elfogadtatni a gyógyszereket törzskönyvező hatóságokkal, és nem is mindig sikertelenül.
  Nézzük hát, milyen időközi változtatások merülhetnek fel. Mindjárt az elején itt vannak a már említett beválasztási feltételek, valamint a mintaelemszám. Változtatható lehetne továbbá a vizsgálat célja is, ha egy szerényebb indítás után („ez a gyógyszer sem rosszabb, mint a piacon lévő”) kiderül, hogy az új gyógyszer valójában jobb. Ekkor a protokoll olyan módosítására lenne szükség, amely szerint immár az új gyógyszer nagyobb hatékonyságát kívánják bizonyítani. Az is előfordulhat, hogy az elsődleges hatásmutatóban nem látnak nagy javulást a kezelés során, de valamelyik másodlagos hatásmutató látványosan javul – ilyenkor természetesen fel szeretnék cserélni a kettő közti sorrendet. Ha pedig egy dóziskereső vizsgálatban néhány dózis hatástalannak bizonyul, akkor az oda besorolt betegeket szívesen kihagynák a folytatásból (és ez etikai szempontból nagyon is érthető).
  Csupa jogosnak tűnő módosítási kívánság, de mi az, amit ebből a gyógyszerhatóság elfogad? Általában csak az „előre tervezett” változtatásokat, amelyek bizonyíthatóan nem emelik az első fajta hiba valószínűségét 5 százalék fölé. De a kör valójában ennél is szűkebb: leginkább csak a mintaelemszám újbóli meghatározása sorolható ide.
  Ezek közül az ún. vak újrameghatározás „sima” ügy, nem csupán megtűrt, de javasolt megoldás is, mert ilyenkor csak a szórást becsülik a vizsgálat adataiból, a feltételezett hatásmértéken (mely egyben a legkisebb, klinikailag releváns különbség is általában) nem változtatnak, és a betegek kezelési csoportja továbbra is titokban marad (innen a „vak” elnevezés). Ha azonban az új mintaelemszámot az addig tapasztalt hatás mértékétől teszik függővé, akkor az időközi elemzés előtti és utáni időszakot először többnyire külön-külön elemzik. Az egymástól függetlennek tekinthető két p-értékből számolt egyetlen „kombinált” p-érték szolgál a hatékonyság eldöntésének alapjául. Ilyen kombinációs módszer több is van, a legegyszerűbb a Fisherféle, amely a p-értékek szorzatát hasonlítja egy – akár táblázatból is kikereshető – küszöbszámhoz. A szakaszonkénti elemzésnek az a hátránya, hogy ilyenkor – előre tervezett és rögzített statisztikai módszerekkel – igazolni kell, hogy a két szakasz eredményei közt nincs jelentős eltérés. Vagyis azt, hogy az időközi elemzés nem befolyásolta a későbbi eredményeket. A bizonyítás nem mindig könnyű feladat, mert sokszor nem is igaz a bizonyítandó állítás. Bármi okozhat eltérést a két szakasz közt: évszakonkénti ingadozás, a vizsgálók gyakorlottabbá válása stb. Ilyenkor a vizsgálatot a hatóság visszaminősíti egyszerű feltáró jellegű vizsgálattá.
  #3
2008-05-01 00:00:00
Vannak olyan adatok, amelyek nagyobb odafigyelést igényelnek, mint a „többiek”. Ilyenek például a „kiugró” értékek, amelyeket már meghatározni sem könnyű. Ha például egy gyermek testmagasságára vonatkozó mérési sorozatban az értékek: 145, 150, 152, 155 – és 180 cm, akkor ez utóbbit kiemelkedően magas értéknek tartjuk. Hogy mihez képest? Leggyakrabban önkéntelenül a minta átlagához viszonyítunk. Ha ezt meg is fogalmazzuk (általában nem szoktuk), akkor jobban tudatosul, hogy valójában statisztikai modellt illesztettünk adatainkra, még ha a legegyszerűbbet is – azt a modellt (az ún. nullmodellt), amelyben semmilyen magyarázó változót nem vettünk figyelembe, az értékeket kizárólag az átlagtól való eltérésük alapján ítéltük meg.
  Lássuk, mire elég a fenti példában rejlő információ. A statisztikai próbák alapján valóban kiugró értéket találunk benne? A számolt átlag 157,6 cm, az attól való eltérések (biostatisztikai modellezésben használatos kifejezéssel: reziduumok – azok a „maradványok”, amelyeket nem magyaráz meg az illesztett modell) pedig rendre –7,6, –6,6, –5,6, –2,6 és 22,4. Elég nagy eltérés-e ez a 22,4, és egyáltalán, mi lehetne a viszonyítási alap?
  Mint annyiszor a biostatisztikában, viszonyítási alapként most is kéznél van a standard hiba (lásd Biostatisztika 7, A statisztikai megbízhatóság; Medical Tribune 2005/11. szám) – ezúttal a reziduumoké. Emlékeztetőül csak annyit, hogy minden becslésnek van standard hibája, és ezt úgy tekinthetjük, mint a becslés értékének egyfajta „természetes”, átlagos ingadozását a becsülni kívánt – rendszerint számunkra ismeretlen – populációs érték körül. Amennyiben méréseinket számtalan mintán megismételhetnénk, sok különböző becslésünk lenne ugyanarra a populációs értékre vonatkozóan, s ezek szórása a standard hibához közelítene. Ha tehát a reziduum értéke a saját standard hibájához képest nagy, akkor statisztikai szempontból is kiugró értéknek nyilváníthatjuk a gyanús mérést.
  Hogy milyen nagynak kell lennie a reziduum és a standard hiba arányának, arra nézve táblázatokból olvashatunk ki küszöbszámokat (amelyek több tényezőtől is függnek: a minta elemeinek számától, az illesztett modell bonyolultságától, valamint a választott szignifikanciaszinttől). Fenti példánkban ezek a reziduum/standard hiba arányok: –0,67, –0,58, –0,49, –0,23 és 1,98. Ez az 1,98 pedig nem haladja meg még a 10 százalékos szignifikanciahatárt sem, úgyhogy nem tekinthetjük kiugrónak.
  Mondjuk, újabb adatokhoz jutunk, s megtudjuk a gyerekek szüleinek átlagos magasságát is: 140, 170, 170, 170 és 180 cm. A nagyon magas gyereknek tehát magas szülei vannak. Ha a szülők átlagos magasságát magyarázó változóként bevesszük a modellbe, a reziduum/standard hibák egészen más arányát kapjuk, mint az előző esetben: 1,71, –0,82, –0,72, –0,43, 1,71. Most még kevésbé tűnik kiugrónak az utolsó érték, mint korábban, ami érthető is, hiszen valamilyen magyarázatot kaptunk időközben. Ezért van nagy szerepe annak, hogy milyen változókat választunk be a modellbe, s ezért fontos, hogy lehetőleg ne az egyszerű leíró statisztika alapján döntsünk (létezik több ilyen statisztikai próba is), hanem a több tényező figyelembe vételét lehetővé tevő próba (ún. Lund-próba) alapján.
  S hogy mi lenne, ha valóban kiugró értéket találnánk? Általában azt tanácsolják: jól fontoljuk meg, kihagyjuk-e a további elemzésből. Csak abban az esetben tegyük ezt meg, ha valamilyen biológiai- orvosi oka is van a kizárásának. És ha végül a kihagyás mellett döntünk, végezzük el az elemzést kétféleképpen: kiugró értékkel és anélkül is. Amennyiben a két eredmény nagyjából egybehangzó, akkor nyugodtak lehetünk afelől, hogy a levont következtetés megállja a helyét. Ha viszont egymásnak ellentmondó eredményeket kapunk, az azt jelenti, hogy egyetlen érték átbillenthette a következtetést az ellenkezőjébe, a legjobb lenne tehát megismételni az egész vizsgálatot.   Egyik statisztikus kollégám mesélte, hogy valamikor régen egy klinikai vizsgálat adatainak feldolgozása során a gyermekek testmagasságára kapott adatok nagy része 130 cm körül mozgott, egyetlen érték volt ezektől eltérő, egy 220 cm-es mérés. Biztosra vette, hogy gépelési hiba, azonnal át is javította 120 cm-re. Évekkel később találkozott a vizsgálatot végző orvosok egyikével, s szóba került a régi vizsgálat. „Milyen furcsa eset volt az a gigantizmusban szenvedő gyerek, emlékszel?” – kérdezte az orvos. Hogyne emlékezett volna. Hiszen az ő jószándékú, de megalapozatlan „javítása” nyomán veszett el az adat. S mindez nem történt volna meg, amennyiben a magasságmérések értékelése során az (oly gyakran mellőzött) anamnézisekre is vet egy pillantást.
  #4
2008-01-01 00:00:00

 Egyszerű és tiszta nóta,
 Gólyafészek, háztető –
 Nincsen benne semmi, ámde Az legalább érthető.

 Szabolcska Mihály:
 Egyszerűség (Karinthy Frigyes Így írtok ti című kötetéből)

 

 Az utóbbi években sok új módszerrel bővült a biostatisztika eszköztára. A gyarapodásnak nem szab már határt sem a képletek bonyolultsága, sem pedig a számolás időigényessége – a számítógépek teljesítménye szinte bármit lehetővé tesz. Az „átlagos” olvasó (aki – mint tudjuk – ugyan nem létezik, de mérceként azért működik) egyre kevésbé tudja követni a statisztikai módszerek leírását az orvosi tárgyú cikkekben, így aztán az eredményeket is egyre nehezebben tudja értelmezni.
   Tagadhatatlan, hogy bonyolult eljárásokra még akkor is szükség van, ha betartjuk „a jól illeszkedő modellek közül válaszd mindig a legegyszerűbbet” elvet. A soktényezős és nem lineáris modellek terjedésével egyidejűleg felértékelődnek azonban az egyszerű módszerek, azok a közelítések, amelyeket az olvasó akár fejben is kiszámolhat. Ilyen Hanley „hármas szabálya” (lásd Biostatisztika 27; Medical Tribune 2007/5. szám), és ilyen a Pocock által nemrég leírt, zseniálisan egyszerű képlet az eseményszámok összehasonlítására (Stuart J. Pocock: The simplest statistical test: how to check for a difference between treatments. BMJ 2006;332:1256–1258).

  Ez a „világ legegyszerűbb statisztikája” az események számának összehasonlítására alkalmazható két csoport esetén. Képzeljünk el egy olyan klinikai vizsgálatot, amelyben egyenlő arányban osztják a (kellően sok) beteget két kezelési csoportba, s a cél valamilyen klinikai esemény (például haláleset, infarktus stb.) megszámlálása. A számolás csak annyiból áll, hogy kivonjuk egymásból a két csoportban bekövetkezett események számát, és ezt a különbséget elosztjuk a számok összegének négyzetgyökével. Ez a statisztika közelítőleg normális eloszlást követ, tehát 2-vel összehasonlítva egészen jól megítélhető belőle az 5 százalékos szignifikancia (ha pontosabbak akarunk lenni, akkor 1,96-tal hasonlítjuk össze, vagy pértéket is számolhatunk a normális eloszlás táblázatából).

 Ami talán szokatlan: ez a statisztika egyáltalán nem veszi figyelembe, hogy hány betegnél nem következett be a szóban forgó esemény – ennek magyarázata, hogy az összbetegszámot elég nagynak feltételezi ahhoz, hogy ne számoljon vele (azaz: Poisson-eloszlásból indul ki).
   Néhány példa: A VIGOR vizsgálatban (NEJM, 2000;343: 1520–1528,) 45, illetve 19 kardiovaszkuláris esemény következett be a két kezelési csoportban. A lograng próba alapján a két csoport közti különbség szignifikáns volt (p=0,0016). A Pocock-féle statisztikával z=(45–19)/=­45+19, azaz z=26/8=3,25, amelyhez a normális eloszlás táblázata alapján p=0,0012 tartozik.
   A PROactive vizsgálatban (Lancet 366:1279–1289, 2005) a másodlagos összetett végpont (halál, infarktus vagy stroke) 301, illetve 358 betegnél következett be a kezelt, illetve a placebocsoportban. Az egyszerű eljárást alkalmazva, z=(358–301)/=­358+301,2,22, amely értékhez p=0,026 tartozik, míg a lograng próba 0,027-es pértéket eredményezett.
   A lograng próba p-értéke mindkét példában igen közel áll a gyors becsléssel kapotthoz. Nem azt jelenti ez, hogy statisztikusként ezentúl ne törekedjünk pontosságra, a leghelyesebbnek vélt statisztikai módszer kiválasztására, netán felejtsük el a lograng próbát, a Coxmodellt és társait, hanem csak azt, hogy olvasóként azonnal próbáljuk meg – a magunk szabolcskásan egyszerű eszközeivel – ellenőrizni az eredményeket. Hisz ez az „á mínusz bé per gyök á plusz bé” képlet oly könnyen megjegyezhető, hogy akár nótát is gyárthatnánk belőle (a közismert „á-szor á az ánégyzet, kisangyalom” mintájára).
   S akkor nem dőlnénk be minden szerzői fogásnak, mint például „Az új gyógyszer egyértelmű sikere (29 százalékkal kevesebb haláleset) komoly nyomást gyakorol az egészségbiztosítóra, amely ezek után nem tagadhatja meg a támogatást”. Beírnánk a számokat (90 és 66) a zsebszámítógépünkbe, s egy perc alatt megjelenne a z=1,92 eredmény. Ez kisebb, mint az 1,96-os (5 százalékos szignifikanciaszintnek megfelelő) küszöbszám – legyintenénk. Az eredmény, noha ígéretes, nem jelent elsöprő erejű bizonyítékot.

 

  #5
2007-12-01 00:00:00
  Bár hazájában, Németországban többnyire Hazug bárónak nevezték, Csehországban pedig Füllent báróként szokták emlegetni, a korabeli emlékezések szerint Münchhausen – aki valóban élt, nem pusztán írói képzelet alkotta – fantasztikus füllentéseivel a nagyképű, kérkedő embereket akarta nevetségessé tenni. Kortársa, történeteinek lejegyzője, az író és tudós Rudolf Erich Raspe felidézi, amint társaságban Münchhausen látszólag hitt egy-egy harsány, nagyotmondó alaknak, nem szállt vele vitába. Aztán mosolyogva úgy irányította a beszélgetést, hogy nemsokára saját utazásairól és háborús kalandjairól szóló mesékkel pirított rá az előtte szólóra. Bár ma már leginkább csak azt tudjuk róla, hogy a csillagokat is lehazudta az égről, barátai szerint ennek jól meghatározott célja volt, át akarta vele alakítani az emberek gondolkodását.
  „A lónak négy lába van, mégis megbotlik, így a legjobb lovast is érheti baleset az ugratásnál. Én is majdnem rajtavesztettem egyszer. Egy mocsarat akartam átugratni. Első pillanatra nem is tűnt túl szélesnek. Sajnos valójában sokkal szélesebb volt, ezért a mocsár közepe táján a levegőben visszafordítottam a lovamat, így tértem vissza oda, ahonnét elindultam. Másodszor már nagyobb lendülettel ugrattam, de sajnos ez az ugrás sem sikerült, a túlsó part közelében nyakig elmerültem a mocsárban. Bizony, az lett volna az utolsó órám, ha hirtelen ötlettel nem bízom magam a karom erejére. Gyorsan és nagy erővel megragadtam a varkocsomat, ugyanakkor térdem közé szorítottam a lovamat, könyörtelen keménységgel szépen kirántottam magam paripástul a feneketlen sárból. Nem tagadom, forró percek voltak, de végül is szerencsésen megmenekültem.” – Így hangzik az egyik törökországi kaland (Tordon Ákos fordítása).
   Kis túlzással azt mondhatjuk, hogy a biostatisztikus is hasonlóan szorult helyzetben van olyankor, amikor nem tudja meghatározni egy paraméter becslési pontosságát vagy konfidenciaintervallumát. Ezek nélkül ugyanis fabatkát sem ér a becslése (lásd Medical Tribune 2005/11. szám, 15. oldal: A statisztikai megbízhatóság). S ekkor jön a münchhauseni ötlet, gyorsan és nagy erővel megragadja – no nem a varkocsát, hanem a mintáját. A mintából származó adatokat egy nagy kalapba dobja, s onnan huzigálja ki egyenként a számokat, szám szerint ugyanannyit, mint amennyi az eredeti mintában volt. Hasonlatos ez az eljárás a lottóhúzáshoz, csak abban különbözik, hogy minden húzás előtt visszateszi a kalapba az előzőleg már kihúzott értéket is (így egyes értékek ismétlődhetnek). Ha például egy négyelemű minta adatai 1, 2, 3 és 4, akkor a viszszatevéses húzással ilyen adatsorokat kap majd: 1, 1, 4, 3; vagy 2, 3, 3, 1; vagy 4, 4, 1, 4images/ és még nagyon sokféle lehetőség létezik. Ha adatsoronként újra kiszámolja a paraméterbecslést, majd meghatározza a becsült értékek szórását, akkor nagyszámú (legalább 200) „húzott” adatsor esetén ez a szórás jól megközelíti majd az eredeti becslés standard hibáját.
    Ezt az eljárást, amely mindig „kéznél van” (hisz szórást mindig tudunk számolni), ha nincs ismert képlete a standard hibának vagy csak egyszerűen nem jut eszünkbe, nem Münchhausen találta ki és nem is az ő korából származik. Bradley Efron írta le először egy 28 éve megjelent cikkében. Módszerét – Münchhausen kalandjára utalva – bootstrapnek (csizmaszárnak) nevezte el, ugyanis az eredeti szövegben a báró csizmaszáránál fogva húzza ki magát és lovát a mocsárból.
    Sokan még mindig kétkedéssel szemlélik ezt a huszárvágásos módszert, amely mögött azonban szabályos matematikai bizonyítás áll. Bátran elhihetjük, hogy a bootstrapre alapozott következtetések éppoly megalapozottak, mint a „klasszikus” statisztikai eljárásoké.
    Bár számtalan alkalmazása van (alkalmazható a konfidenciaintervallum számítására, t-próbára és még sok egyéb statisztikai eljárásra), és a mintából való mintavételen alapuló eljárások egész sorát nyitotta meg, helyességét még 28 év elteltével is sokszor bizonygatni kell, talán épp a „nagy füllentő”- re utaló tréfás neve miatt. Pedig csak azt próbálta tenni a biostatisztikában, amit Münchhausen az előkelő társaságokban: kicsit megváltoztatni az emberek szemléletmódját.
  #6
2007-09-01 00:00:00
   Iteratív (lépésenkénti) jellege folytán Bayes módszerével modellezhetőek a tanulási folyamatok, így alkalmazható a szakértői rendszerek, alakfelismerés és a mesterséges intelligencia területén. Sőt, az elektronikus levelezésben használatos spamszűrők alapját is ez az elmélet képezi. Miközben számítástechnikai alkalmazásai sokasodnak, a klinikai vizsgálatok elemzésében betöltött szerepe nem nő.
   A Bayes-módszer klinikai vizsgálatokban való alkalmazásának legsebezhetőbb pontja az a priori valószínűségek meghatározása. Ezt vagy kellő számú orvos véleménye alapján alakítják ki, vagy pedig úgynevezett noninformatív, semleges (például egyenletes) eloszlást feltételeznek.
   Kivételt képeznek a diagnosztikai eljárások, ahol a módszer könnyen alkalmazható, mert általában megbízható ismereteink vannak a próba mutatóiról (lásd A diagnosztikai próba mutatói, Medical Tribune 2006/9. szám, 18. oldal). A betegség előfordulási arányát, a prevalenciát tekinthetjük úgy is, mint annak a priori valószínűségét, hogy valaki az illető betegségben szenved (nem ismerve még a diagnosztikai próba eredményét). A próba pozitív eredményének ismeretében becsült, a posteriori valószínűség pedig a pozitív prediktív értékkel egyenlő. A diagnosztikai eljárások eredményének értékelésére, azaz a betegség valószínűségének becslésére egyre gyakrabban alkalmazzák Bayes tételét (Grimes DA, Schulz KF. Refining clinical diagnosis with likelihood ratios, Lancet 2005; 365:1500–1505). Bayes (esélyhányadosokra módosított) tételének egyszerű grafikus ábrázolása is van, az – egyébként sem túl bonyolult – számításokat nomogramok használatával lehet helyettesíteni (Page J, Attia J. Using Bayes’ nomogram to help interpret odds ratios. Evidence Based Medicine 2003;8: 132–134).
   Az orvosok észjárása természetesen és szükségszerűen bayesiánus, állítja a BMJ-ben nagy vitát kiváltó cikk (Gill CJ, Sabin L, Schmid CH. Why clinicians are natural bayesians. BMJ 2005;330:1080–1083). A beteg bemegy az orvoshoz, akiben felmerül néhány lehetséges diagnózis. Attól kezdve minden új információ, a beteg minden egyes válasza módosítja az előző képet egészen addig, míg a lehetséges diagnózisok egyikének valószínűsége elég nagy lesz a többihez képest. Az orvos nem gondolkodhat frekventista módon olyankor, mikor egyetlen beteg kezeléséről kell döntenie, mert a frekventista eljárások egyéni predikcióra nem alkalmasak.
  Ha egy orvos mégis megpróbálná frekventista módon értelmezni a diagnosztikai próba eredményét, ezt nem tehetné túl hosszú időn át, mert betegkörét pillanatok alatt elveszítené, mint azt – feltételezve, hogy a coeliakia szerológiai szűrővizsgálatának szenzitivitása és specifikussága egyaránt 95 százalék – a következő párbeszéd is mutatja (BMJ 2005;330: 1390–1391):
   – Apa: Nos, doktor úr, megérkezett- e a vizsgálat eredménye?
   – Orvos: Igen. Mikor láttam, hogy Jancsika alacsony, lefogyott és hasmenése van, mindjárt lisztérzékenységre gyanakodtam, és a teszt eredménye pozitív lett.
  – Apa: Ez azt jelenti, hogy Jancsika lisztérzékeny?
  – Orvos: Nem állíthatom, hogy biztos, de valószínű.
  – Apa: Mennyire valószínű?
  – Orvos: Azt nem tudom megmondani. De annyit tudok, hogy ha nem szenvedne ebben a betegségben, akkor a próba eredménye 95 százalékos valószínűséggel negatív lenne.
 – Apa: És akkor ez most azt jelenti, hogy a betegség fennállásának valószínűsége 95 százalék?
 – Orvos: Nem, az ebből nem következik.
 – Apa: S akkor mi következik? – Orvos: Ha Jancsika nem volna lisztérzékeny, akkor 5 százalék    volna a valószínűsége annak, hogy a mostani eredményt kapjuk.
  – Apa: S akkor mit gondol a doktor úr, mi okozza a fogyást és a hasmenést?
  – Orvos: Hát épp azért végeztettem el a vizsgálatot, hogy ezt megtudjam.
  – Apa: S akkor most valószínűbb, hogy lisztérzékenységben szenved?
  – Orvos: Azt nem mondhatnám
  – Apa: Mégis, akkor mi most a teendő?
  – Orvos: Hát... megismételhetnénk a tesztet még néhányszor, s ha mindannyiszor pozitív lenne, akkor a betegség valószínűsége is megnőne.
 – Apa: Mennyire nőne meg?
 – Orvos: Azt nem tudom megmondani, de nyilván nem csökkenne. Ha többször elvégezném a próbát hasonló tünetekkel rendelkező betegeken, akkor talán biztosabbat tudnék mondani...
  #7
2007-09-01 00:00:00

 „Amerika felfedezése nem tekinthető bizonyítottnak, mert Kolumbusz protokolljában India megtalálása volt a cél.”
  Prof. Stephen Senn, angol biostatisztikus

 Egyik ismerősöm meglepődött azon, hogy milyen nehéz a választás számomra a biostatisztikai konferenciák közt. A biostatisztikát sokan lezárt tudománynak képzelik (valószínűség-elmélet és képletek régóta léteznek, mit lehet erről több napon át értekezni?). Pedig az idei konferenciák (is) ennek épp az ellenkezőjét mutatták.
  A rugalmas, változtatható elrendezésű klinikai vizsgálatok (ún. adaptív vizsgálatok) témája továbbra is listavezető. A „hagyományos” klinikai vizsgálatokban ugyanis minden (hatásmutatók, kezelési csoportok, időtartam, mintaelemszám) előre rögzített egy úgynevezett protokollban. A megvalósítás során szükségesnek bizonyuló apró eltérések protokollmódosítást igényelnének, ám a merev struktúra megakadályozza, hogy a gyógyszerfejlesztésben érdekelt szereplők a már megkezdett vizsgálatot számukra kedvező irányba tereljék (például más hatásmutatót válasszanak, ha az eredetileg kijelöltben nem tapasztalható sok változás, vagy meghosszabbítsák a vizsgálatot, ha a tervezett idő lejártakor még nem elég nagy a hatás). Ezt illusztrálja a fenti, a Glasgow-i Egyetemen tanító Stephen Senn professzortól kölcsönzött mondat.A rugalmatlanságnak viszont ára van: túl sok beteg részesül a kevésbé hatásos kezelésben (hiszen a vizsgálat közben nyert információk nem befolyásolják a vizsgálat menetét), a jobbnak bizonyuló gyógyszer pedig később kerül piacra.
  Ha tehát sikerülne a gyógyszerek törzskönyvezését engedélyező hatóságokkal egyezségre jutni a rugalmas elrendezések elfogadhatóságának tekintetében, akkor általában kevesebb beteggel, olcsóbban és főleg rövidebb idő alatt lehetne egy-egy gyógyszer hatékonyságát bizonyítani (vagy abbahagyni a fejlesztést, ha a gyógyszer nem bizonyul hatékonynak).
   A rugalmas, változtatható elrendezésű vizsgálatok a számos nyitott kérdés ellenére is sokasodnak. Az egyik lehetséges haladási irány az ún. kettes fázisú, dóziskereső vizsgálatok és a hármas fázisú, hatást bizonyító vizsgálatok összevonása lenne. A dóziskeresés során hatásosnak bizonyult dózisokkal folytatódna a vizsgálat és kiszélesedne hármas fázisúvá. Ilyenkor persze a becslések konfidenciaintervalluma nem számolható a hagyományos módon – ez is egy teljes konferencia számára elegendő téma.
  A másik „örökzöld” a multiplicitás kérdése, azaz a többszörös összehasonlításé. A „hagyomány” szerint általában egyetlen fő hatásmutató van, ennek alapján hoznak majd olyan döntést, melyet a vizsgálatban mért másodlagos hatásmutatók nem befolyásolnak. Ám egy hosszú, drága klinikai vizsgálatnál joggal tevődik fel a kérdés: ennyi beteget kezeltek ilyen sokáig ezért az egyetlen információért? Hogyan lehetne több ismeretet szerezni egyetlen vizsgálatból? Statisztikai szempontból a feladat itt az első fajta hiba megőrzése (lásd Biostatisztika 1.; Medical Tribune 2005/4. szám, 14. oldal). Ha két elsődleges hatásmutató van, ezeknek „osztozniuk kell” a teljes első fajta hiba maximumán, mindegyikükre kisebb felső határ jut (egyik legismertebb korrekció ilyenkor a Bonferroni- féle, mely két hatásmutató esetén egyszerűen két egyenlő részre osztja az első fajta hibahatárt és mindegyik hatásmutató egy-egy felet kap). Azonban ma egyre népszerűbbek az ún. hierarchikus módszerek, amikor a szignifikanciapróbák lépésenként, meghatározott sorrendben történnek és egyegy lépés csak akkor hajtható végre, ha az előző szignifikáns eredményt adott. Ez a módszer lemond arról, hogy minden létező lehetőséget megvizsgáljon, cserébe viszont a megmaradó hipotézisvizsgálatokra nagyobb első fajta hibát enged meg, mint a Bonferroni-korrekció. Két vagy három hatásmutató és például négy dózis esetén a hipotéziseknek már igen sokféle kombinációjuk van, úgyhogy ez a kutatási forrás nem apad ki egyhamar.
  Újra népszerűek a már korábban is ismert, ún. globális próbák. Ezek haszna olyankor mutatkozik meg, ha egy klinikai hatást több skálával jellemeznek, és feltételezik, hogy a kezelés hasonló módon befolyásolja az eredményeket mindegyik skálán. A globális statisztikai próbák ilyenkor a többféle eredményt egyetlen, összesített próbastatisztikába sűrítik, jelentősen megnövelve ezzel a próba erejét. Téma van tehát bőven, konferencia is akad elég. Találgathatjuk, hogy melyik módszert alkalmazzák majd tíz év múlva is, és melyik tűnik el nyomtalanul.


 A putamen nekrózisa

 A sötét színű italokban több a metanol, a propanol, a butanol vagy az izoamil-alkohol. Erre is gondolnunk kell, amikor a másnapossággal járó fejfájást szeretnénk elkülöníteni a migréntől.

 Az 51 éves férfit négy nap alatt kialakult kétoldali vakság miatt szállították kórházba. Elmondása szerint valamilyen olcsó whiskyt ivott egy mulatozás során – ezt követően 48 órán át komoly nehézlégzést tapasztalt, és látása is romlani kezdett, szemmozgáskor pedig erős, szemgolyó mögötti fájdalmat érzett. Pupillái mindkét oldalon tágak voltak, fényre renyhén reagáltak. A szemfenék mindkét oldalon ödémás és halvány volt. Neurológiailag egyéb kórosat nem észleltek. Szérumában metanolt nem találtak, de metabolikus acidózisa volt. Négy héttel később készült, T2-súlyozott agyi MR-felvétele szimmetrikus putamenléziót rögzített, amely vérzéses elhalásra utalt (NEJM 2007;356:e23).
  A metanol-anyagcsere toxikus végterméke, a formaldehid közvetlenül, illetve iszkémiás károsodáson és acidózison keresztül okozhatta a putamen nekrózisát. A beteg valószínűleg az olcsó ital viszonylag kis metanol- és nagyobb etanoltartalma miatt maradhatott életben – az utóbbi gátolhatta a metanol-anyagcserét. Látása a kétéves követés során nem javult.
  Az etanolon kívül más alkoholokat (metanolt, propanolt, butanolt, izoamil-alkoholt), esetleg aldehideket és észtereket (rokon vegyületeket, ún. congenereket) is tartalmazó italok „enyhébb” következménye lehet az erős fejfájás. Ezek miatt nehéz olykor elkülöníteni az alkohol kiváltotta migrént és a másnaposság okozta fejfájást. Megtévesztők lehetnek a koncentrációzavaroktól és az ingerlékenységtől egészen a félelemérzésig és a depresszióig terjedő pszichés tünetek is. További hasonlóság a fejfájás lüktető jellege, a szemek mögötti kalapálásérzés és fájdalom roszszabbodása a szemek vagy a fej mozgatásának hatására. Az elkülönítő kórismézés lényegében az anamnézisen alapul. Migrént valószínűsít a pozitív családi anamnézis, a fejfájások gyermek- vagy fiatalkori kezdete, akárcsak az, ha a boron kívül más élelmiszer (csokoládé, sajt) is kiváltja a tüneteket.
  A Headache című szakfolyóirat (2007;47:277–279) nemrég számolt be egy 35 éves nő esetéről, akit három pohár bor elkortyolgatása után néhány órával kínzó fejfájás gyötört, holott amikor gint iszik tonikkal, soha nincs ilyen panasza. A negatív anamnézisű páciens fejfájását rossz közérzet, hasmenés, fény- és zajkerülés, bágyadtság és koncentrációzavar kísérte. Az ő esetében inkább macskajajról lehetett szó. Az sem meglepő, hogy a hölgy csak bortól ennyire másnapos, ugyanis a sötét színű italokban – ilyen a Bourbon whiskey is – több a congener, míg a vodkában vagy a ginben a rokon vegyületek jóval kisebb mennyiségben fordulnak elő.

  #8
2007-07-01 00:00:00
Többször említettük már sorozatunkban (A statisztikai megbízhatóság Medical Tribune 2005/11. szám, 15. oldal; A hamis esélyhányados és a sánta kutya, 2006/15–16. szám, 20. oldal), hogy létezik a „klasszikus” statisztikának egy „rivális” irányzata, a Bayes tételén alapuló, ún. bayesiánus iskola. Tulajdonképpen a „klasszikus” jelző itt nem jogos abban az értelemben, hogy a másik irányzat épp olyan régi múltra tekinthet vissza és alkalmazási köre is legalább ugyanolyan széles. Helyesebb lenne talán „többségi” statisztikának nevezni a frekventista következtetési módszert, amely a populáció jellemzőit rögzített, változatlan értékeknek tekinti (szemben a bayesiánusokkal, akik szerint ezek a jellemzők is valamilyen valószínűségi eloszlást követnek). Kétségtelen, hogy a frekventisták vannak többen a biostatisztikusok között, és a klinikai vizsgálatok értékelésének jelenleg hatályos szabályozása csak futólag említi, hogy bizonyos esetekben – kellőképpen megindokolva
– a Bayes-módszer is alkalmazható. Egyébként Bayes tételét a frekventisták is alkalmazzák, csak ritkábban, mint a bayesiánusok.
   Thomas Bayes nonkonformista presbiteriánus lelkész egykor megpróbálta számszerűsíteni a hitet, a meggyőződés fokát. Filozófiája alapjául egy egyszerű valószínűség- számítási egyenlet szolgált (ez a Bayes-tétel), amely összefüggést teremt két esemény valószínűsége és azok feltételes valószínűségei közt. Az elméletét ismertető tanulmányt (Essay Towards Solving a Problem in the Doctrine of Chances, 1763) barátja közölte két évvel a szerző halála után.
   Ebben az elméletben a megfigyelt események valószínűsége (relatív gyakorisága) még nem a végeredmény (mint a frekventista szemléletmódban), hanem csak annyiban számít, amennyiben korábbi meggyőződésünket erősíti vagy gyengíti. Ha korábbi meggyőződésünk erős volt, egyetlen – ellenkező előjelű – kísérleti eredmény nehezen billenti át a túloldalra. Ha viszont valamely kísérlet eredménye egybecseng korábbi elképzeléseinkkel, nagyon megerősödhet az azokba vetett hitünk.
   Egyszerű példaként nézzünk meg egy bírósági tárgyalást, ahol az egyetlen tárgyi bizonyíték a DNS-minta. Legyen az A esemény az, hogy a gyanúsított bűnös, B pedig az, hogy a helyszínen talált DNS-minta egyezik a gyanúsítottéval. Tételezzük fel, hogy a bíró kb. 10 százalékos valószínűséggel tartja bűnösnek a gyanúsítottat, mielőtt a DNSvizsgálat eredményét megtudná (Bayes-nyelven ez az A esemény a priori valószínűsége). Ha valóban a gyanúsított a bűnös, akkor a DNS-minta egyezése biztos, tehát valószínűsége 1 (ez a B esemény valószínűsége akkor, ha A már bekövetkezett, ezt hívják feltételes valószínűségnek). Annak valószínűsége, hogy a teljes populációból véletlenszerűen kiválasztott személy DNS-mintája egyezést mutasson a helyszínen találttal, egy az egymillióhoz. A DNS-minta egyezése két, egymást kizáró esemény egyikeként következhet be: vagy akkor, ha a gyanúsított a bűnös (ennek valószínűsége 0,131), vagy ha nem ő a bűnös (ennek 0,9310–6 a valószínűsége). Mivel egymást kizáró eseményekről van szó, a valószínűségeket összeadhatjuk, tehát a DNS-minta egyezésének valószínűsége összesen 0,1000009. Itt következik a Bayes-tétel, amely azt mondja, hogy a gyanúsított bűnösségének a DNS-vizsgálat utáni, ún. a posteriori valószínűsége (az A esemény B-re kondicionált feltételes valószínűsége) kiszámítható úgy, mint az A esemény (feltétel nélküli) valószínűségének és B feltételes valószínűségének szorzata osztva B (feltétel nélküli) valószínűségével. Behelyettesítve példánk számadatait, a DNS-minta egyezése után a bűnösség valószínűsége az eredeti 0,1-ről 0,1/0,1000009=0,999991-re nő.
   Az a posteriori valószínűséget tehát nem kizárólag a relatív gyakoriságok befolyásolják (jelen esetben az, hogy a DNS-minta véletlenszerű egyezése ritka, valószínűsége 10–6), hanem a bíró vagy az esküdtek a priori meggyőződése is. Ha például a bíró úgy vélné, hogy a gyanúsítottat ártatlanul vádolják, ellene hamis bizonyítékokat gyártottak (tehát a bűnösség a priori valószínűségét kb. 10–6-ra tenné), akkor az előző számítás eredménye 0,000001/ 0,0000019, azaz 0,526 lenne, jóval kisebb, mint az előző esetben.
  #9
2007-03-01 00:00:00
A statisztikai alapfogalmakról szólva sorozatunk elején, a 2. részben (2005/5. szám, március 17.) a kutató kockázatának neveztük a második fajta hibát. Ez így is van olyankor, amikor egy gyógyszer kedvező hatását vizsgálják, hiszen a második fajta hiba azt jelenti, hogy hatástalannak ítéljük a valójában hatékony gyógyszert. Azaz elfogadjuk a hamis nullhipotézist.
  Amikor azonban a vizsgálandó hatás egy mellékhatás, a nullhipotézis téves elfogadása korántsem a kutató kockázata, hanem a majdani gyógyszerfogyasztóé. Ha a nullhipotézis az, hogy a mellékhatások aránya egyforma a kezelt csoportban és a kontrolloknál, akkor téves elfogadása azt jelenti, hogy szem elől tévesztünk egy valós mellékhatást.
   Márpedig a klinikai vizsgálatok nagy részét nem a mellékhatások felismerésére tervezik. A vizsgálatban részt vevő betegek számát úgy határozzák meg, hogy a gyógyszer kedvező hatása nagy valószínűséggel bizonyítható legyen statisztikailag. De ennél a betegszámnál általában nagyon kicsi a mellékhatásokat vizsgáló statisztikai próba ereje. Éppen ezért a klinikai vizsgálatokban a mellékhatások arányának összehasonlítására nem is szoktak statisztikai próbát végezni, hanem csak leíró és összefoglaló táblázatokat. Ha jelentős különbség van az arányok közt, az így is látszik, s olyankor tovább vizsgálják a gyógyszeres kezelés és az illető mellékhatás közötti összefüggést.
   De mi történik, ha nincs különbség? Ha például egy ritka mellékhatás egyáltalán elő se fordul a vizsgálat során? James Hanley egyszerű képletével (If nothing goes wrong, is everything all right? Interpreting zero numerators. JAMA, 1983) könnyen becsülhető egy még be nem következett mellékhatás valószínűsége. Ha n beteget kezeltek egy gyógyszerrel és egy bizonyos mellékhatás egyáltalán nem lépett fel, akkor 3/n az előfordulási valószínűség 95 százalékos konfidenciaintervallumának felső határa (ha n>30). Mint Hanley írja: „Ez a hármasszabály azt mondja ki, hogy ha n beteg közül senkinél nem következett be az általunk éppen vizsgált esemény, akkor 95%-ig biztosak lehetünk abban, hogy ennek az eseménynek a valószínűsége nem nagyobb, mint 3 osztva n-nel” (The American Statistician 1997;51). Háromszáz betegnél például (amely megfelel egy „átlagos” vizsgálat mintaelemszámának) ez az érték 1 százalék, tehát az 1 százaléknál ritkább mellékhatások akkor sem zárhatóak ki, ha még nem fordultak elő. Ezek a hatások csak a forgalomba hozatal után derülnek ki. Azonban a később begyűjtött adatok egészen más minőségűek, mint amiket a klinikai vizsgálatok során nyernek.
   Az 1960-as évektől kezdve működnek mellékhatás-figyelő rendszerek. Az arányok becslését ezekben a passzív és retrospektív gyűjtőrendszerekben több zavaró tényező is nehezíti. A gyógyszermellékhatás előfordulási arányának meghatározása: ismert esetek száma osztva a gyógyszerfogyasztók számával. Az osztandót nem ismerjük pontosan, mert az ún. spontán mellékhatás-jelentések esetlegesek. Az osztót sem ismerjük, legfeljebb következtethetünk rá a vények és az eladott dobozok számából. Ha azonban a gyógyszer nem vényköteles, akkor az osztó megbízható becslése szinte reménytelen. A feladat tehát: határozzuk meg a hányadost, mikor sem az osztandó, sem pedig az osztó pontossága nem ismert.
   Akkor hogyan és miért működnek mégis ezek a rendszerek? Mivel nagyon nagy adatbázisokról van szó (általában milliós nagyságrendűek), érzékelni tudják, ha valamely földrajzi területen nő a mellékhatások aránya, vagy ha valamelyik időszakban növekedés lép fel. Ilyenkor további vizsgálódás után azonosítani tudják, hogy mi okozta a változást: például új gyógyszer jelent meg a piacon, vagy valamely gyógyszerből hibás széria került forgalomba. A vizsgálat eredményeként bevonhatják a gyógyszert, vagy megváltoztathatják a felírási feltételeket. Az összehasonlítást azonban nehezíti, hogy egyes betegcsoportokban a halálozási arány mindenképpen nagy, gyógyszerrel és anélkül is. Kötelező oltások esetén pedig nincs semmilyen kontrollcsoport.
   Abban egyetértenek a gyógyszerkutatás szereplői, hogy a mellékhatásokkal kapcsolatos információgyűjtés nem elégséges. Hosszabb és külön erre a célra tervezett klinikai vizsgálatokra lenne szükség. Az ilyen vizsgálatoknak azonban nincs gazdája. Egyesek azt javasolják, hogy a szignifikanciaszint csökkentésével (például p<0,0001-re) szigorítsák az interim analíziseknél a vizsgálat félbeszakításának feltételét, ezáltal kényszerítve a cégeket több adat begyűjtésére. Az ellenérv az, hogy így a kiemelkedő hatású gyógyszerek sokkal később jutnának el a betegekhez, később pedig úgyis kihullnak a rostán a nem kellően biztonságosak (kb. a gyógyszerek 2,5 százalékát vonják be mellékhatások miatt). Mindkét fél a betegek érdekeire hivatkozik, és tényleg az ő érdekük mindkettő: a hatásosság és a biztonságosság is – de a döntéshozatalban jelenleg az előbbinek van túlsúlya.
  #10
2006-12-01 00:00:00
A kérdés az, hogy melyiket lehet hamarabb utolérni. Egyelőre úgy tűnik, hogy az előbbit. A hibás esélyhányados kényelmesen üldögélve, zsebszámológéppel is elkapható, az elemiben tanult számtani alapműveletekkel.
Az ötlet Peter Lee-től származik (Statistics in Medicine 1999;18: 1973–1981), aki – dohányipari cégek biostatisztikus tanácsadójaként – megelégelte, hogy a cigaretta ártalmairól (amelyeknek tényét egyébként nem vonja kétségbe) boldog-boldogtalan cikket ír és gyanús statisztikákat közöl. Olyan feltételeket ellenőrzött, amelyeket feltehetőleg épp egyszerűségük miatt nem vizsgált korábban senki.
Ha például az esélyhányados vagy a relatív kockázat becslését konfidenciaintervallumal együtt közlik, akkor – helyes számolás esetén – a becsült érték a megbízhatósági határok mértani középarányosa. A következő, alig bonyolultabb feltétel, hogy a mintaelemszámnak összhangban kell lennie a konfidenciaintervallum hosszával (N>=245,86/Q2, ahol Q a logaritmált konfidenciahatárok közti különbség). A harmadik, hogy abban a 22-es táblázatban, melyből a relatív kockázatot számolják, minden egyes cellában 15,4/Q2-nél nagyobb esetszámnak kell lennie.
A Lee által ellenőrzött cikkek egyike szerint például a passzív dohányzás statisztikailag szignifikánsan növeli a tüdőrák kockázatát, már napi 1–9 cigaretta elszívása esetén a relatív kockázat 1,40- szeres (1,12; 1,76) a nemdohányzókhoz képest. Az első próbán még átmegy ez az eredmény, mert 1,402 közel egyenlő 1,12 x 1,76, de a másodikon már megbukik, mert Q2=0,204, amiből N>=1204 következne, márpedig a vizsgálatban összesen 147 ember vett részt, és közülük se szívott el mindenki napi 1–9 cigarettát, tehát a valódi mintaelemszám 147-nél kisebb. A harmadik próbát nem lehetett elvégezni az adatokon, mert az esetszámot nem közölték cellánként. A 147 és 1204 közti különbséget azonban aligha lehet kerekítési hibával magyarázni – ezt még Münchhausen báró (aki egy biostatisztikai módszer ihletője is volt, de ez külön cikket érdemel) is túlzásnak tartaná.
Lee cikkének megjelenése után sorozatban buktak le a 2 x 2-es táblazatokon, azaz bináris adatokon (a bináris adatokról részletesebben sorozatunk 18. része szólt; Fekete-fehér, igen-nem – mit számolnál szívesen? 2006/5. szám, március 16.) alapuló metaanalízisek.
Más típusú, például normális eloszlású adatokon sajnos nem lehet hasonlóan egyszerű ellenőrző képleteket kitalálni, mert az adatok szórása nem függ az átlagtól. Annyi ebben az esetben is igaz, hogy az átlag számtani középarányosa a konfidenciaintervallum végpontjainak. És N>=16.S2/Q2, ha S az adatok szórása, Q pedig a konfidenciahatárok közti különbség.
Vajon hány elemzés találtatna könnyűnek, ha a megméretésnek a fentihez hasonló eszköze mindenki számára hozzáférhető lenne? Komoly előadásokon egymással versengenének a gyorsan számoló hallgatók, melyikük kiabálja be hamarabb, hogy semmi nem igaz az egészből.
És mi ebből a tanulság? Netán az, hogy a szerzők minél kevesebb adatot közöljenek, megelőzendő az ilyen kínos lelepleződéseket? Vagy kerüljék a bináris adatokat, mert azokon könnyebb felfedezni az esetleges ellentmondásokat? Talán egyszerűbb megoldás, ha gondosan ellenőrzik adataikat közlés előtt, és nem hagyják, hogy érzelmeik és meggyőződéseik befolyásolják őket eredményeik „kerekítésében”.
Ha mégis be szeretnék építeni meggyőződéseiket az elemzésbe, ezt megtehetik, élve Bayes módszerével, amelynek épp az a lényege, hogy az eredmények kiszámításakor figyelembe veszi az előzetes elképzeléseket is. Tisztességes, követhető módon.
  #11
2006-10-01 00:00:00
BIOSTATISZTIKA 25.
Alapításának huszonötödik évfordulóját ünnepli a Wiley kiadó biostatisztikai folyóirata, a Statistics in Medicine. Sorozatunkból pedig épp e jelenlegi cikk a huszonötödik. A Statistics in Medicine csak egyike a világ számos, rangos biostatisztikai szaklapjának, míg – ismereteink szerint – sorozatunk jelenleg az egyetlen talpon lévő e témakörben Magyarországon. Pedig volt több is.Hajtman Bélának a Lege Artis Medicinae-ben 1999-ben megjelent tízrészes sorozatát (A biostatisztika alapjai I–X.) azóta is sokan idézik. A British Medical Journalből válogató BMJ Magyar Kiadás hasábjain megjelenő Statisztikai Jegyzet csak 2002 januárjától, a folyóirattal együtt tűnt el. Voltaképpen mindkét említett sorozatnak sikere volt az olvasók körében, mégsem vált hagyománnyá egyetlen magyar szakfolyóiratnál sem a biostatisztika népszerűsítése.
  #12
2006-08-01 00:00:00

BIOSTATISZTIKA 24.

Amennyire sokféleképpen mérhetjük a fájdalmat, annyira sokféleképpen dolgozhatjuk fel a begyűjtött adatokat. Az értékelési módszerek lényegesen eltérnek aszerint, hogy krónikus vagy akut fájdalomról van szó.
Az akut fájdalomnál az „elmúlt/ nem múlt el” vagy a „mennyit csökkent a kezdeti értékhez képest” típusú adatokra a szokásos – általában nem paraméteres – statisztikai próbák alkalmazhatók. Vizuális analóg skálák esetén – bár a folytonos változókra alkalmazható módszerek gazdagabb eszköztárából válogathatunk – az eredmény sokkal nehezebben interpretálható. Vannak ugyan támpontok, például általában a 13 mm-esnél nagyobb változást tartják klinikailag is jelentősnek, meg azt is mondják, hogy a 10–39 mm az enyhe, a 40–60 mm pedig a közepes fájdalomnak felel meg, de minek ez a játék a milliméterekkel, ha végül visszaalakítjuk az eredményeket a besorolást megkönnyítő négypontos (nincs, enyhe, közepes, erős) skálára? Egyébként matematikailag bebizonyítható, hogy az ötnél több fokú skálák kevés plusz információt tartalmaznak (és alig növelik a statisztikai próba erejét) az öt- vagy annál kevesebb fokúakhoz képest.

  #13
2006-07-01 00:00:00

BIOSTATISZTIKA 23.

„Költők írhatnak róla és egyéb haszna is van” – írta Szilágyi Domokos a napsütésről. Hasonló a fájdalom is. Orvosok gyógyíthatják, gyógyszerek csillapíthatják, a biostatisztikusok pedig számolhatnak vele. De hogyan mérhetjük a fájdalmat?
A módszerek és mértékszámok sokfélesége is arra utal, hogy ezt a testi-lelki-szellemi állapotra egyaránt kiható jelenséget nagyon nehéz számokkal jellemezni. Próbálták egy- és többdimenziósan, kategóriákkal és folytonosan. A kérdések sora folytatható: ki értékelje a fájdalmat és milyen gyakorisággal – a beteg vagy az orvosa? Hogyan ítélhető meg egy mérési módszer alkalmassága?

  #14
2006-06-01 00:00:00

BIOSTATISZTIKA 22.

Sorozatunkban gyakran esett szó a statisztikai erő jelentőségéről (A második fajta hiba, avagy a kutató kockázata; 2005/5. szám, 12. oldal). Említettük, hogy a klinikai vizsgálatba beválasztott betegek számának elég nagynak kell lennie ahhoz, hogy a későbbi eredmény és az abból levont következtetés megalapozott legyen, ugyanakkor – az adott feltételek mellett – a lehető legkisebbnek kell lennie, hogy ne részesüljenek indokolatlanul sokan a placebóval vagy a kevésbé hatásos készítménnyel való kezelésben.
A statisztikai erő meghatározásához általában hozzáfűzik, hogy „a túl kis mintaelemszámmal folytatott vizsgálatok nem etikusak, mert a betegeket olyan vizsgálatba vonják be, amelytől csekély eredmény várható”. Ám a szép kort megért sztereotípiákat nem árt időnként újragondolni. Egyre többen kételkednek abban, hogy a kevés beteg bevonásával folytatott vizsgálatok valóban etikátlanok lennének (Bachetti és mtsai: Etika és mintaelemszám, Am J Epidemiol 2005;161: 105–110). Tényleg gyengék-e a kisebb statisztikai erejű vizsgálatok?

  #15
2006-05-01 00:00:00

BIOSTATISZTIKA 21.

Sorozatunk egy korábbi részében (2006. 5. szám, 17. oldal) már láttuk, hányféle paramétert becsülhetünk egy egyszerű 22-es táblázatból, összesen négy számból, ha a kezelés hatását bináris változóval mérjük (például hatott/nem hatott). Ugyanilyen 22-es táblázatokkal jellemezhetjük a diagnosztikai eljárásokat is, ha eredményük bináris változó (beteg/ nem beteg).
A diagnosztikai eljárásokkal kapcsolatos sok fogalom (szenzitivitás, specifikusság, álpozitivitási és álnegativitási arány, pozitív és negatív prediktív érték, valószínűség- hányados és hatásfokmérő karakterisztika) legkönnyebben példákkal mutatható be. Találjunk ki ezért egy új betegséget, a biostatisztika- rezisztenciát, melynek előfordulási gyakorisága a teljes lakosság körében 30 százalék (bár az új megbetegedések száma – és ebben sorozatunknak is része lehet – csökkenő tendenciát mutat). Tételezzük fel továbbá, hogy létezik egy drága genetikai módszer, amely biztosan kimutatja a betegséget, valamint akad egy diagnosztikai eljárás (jelen esetben egy gyorsan kitölthető kérdőív), amellyel kiváltható a genetikai vizsgálat. A kérdőívre adott válaszok pontösszege 1 és 100 között lehet, az általánosan elfogadott küszöbszám pedig a 75 (vagyis biostatisztika-rezisztenseknek tekintjük a 75 fölötti pontszámot elérőket). A felmerülő kérdések: mennyire megbízható az egyszerűbb eljárás, pozitív eredmény esetén mekkora a betegség valószínűsége, valamint mekkora legyen a küszöbszám.

  #16
2006-04-01 00:00:00

Biostatisztika 20.

Gyakori megállapítás orvosi szakcikkekben: „X kezelés ezt okozta.” Vajon végiggondolják-e szerzők és olvasók, hogy milyen nehéz ezt a rövid mondatot értelmezni? Olyan, mint a Páskándi-vers címe, A mű oka: a tű foka – azt hiszem, a gyógyulás oka is a tű foka.

A kezelés hatását általában a kezelési csoportok átlagai közti különbséggel azonosítják. Ez rendben is van abból a szempontból, hogy az átlagok közti különbség jól becsülhető paraméter, ráadásul sok előnyös matematikai tulajdonsága van, amelyeknek köszönhetően a konfidenciaintervalluma (CI) is könnyen kiszámítható. Jellemezhetné a kezeléshatást például a mediánok közti különbség vagy az átlagok hányadosa, legfeljebb a CI becslése lenne kicsit bonyolultabb. De nem változtatna a lényegen: azon, hogy az így meghatározott eltérést nem egyedül a kezelés okozta. A kezelésnek tulajdonítható „tiszta” hatás – ha mérni tudnánk – ugyancsak két érték összehasonlításából származna: a kezelés végén mért értéknek ahhoz a hipotetikus értékhez való viszonyításából, amit akkor mértek volna, ha ugyanazt a beteget nem kezelik. Csakhogy ezt a kezelésmentes értéket, amely „valódi” viszonyítási alap lehetne, nem tudjuk becsülni.

  #17
2006-03-01 00:00:00

Az utópiák megvalósulnak?
„A mi civilizációnk a gépeket és a gyógyászatot és a boldogságot választotta ... Az ember azért hisz bizonyos dolgokban, mert úgy kondicionálták, hogy higygyen bennük.”
(Aldous Huxley)
Biometria és Klinikai Informatika – állt a halványszürke épület homlokzatán, alatta pedig a mottó: „Pontosság, gyorsaság”. A diákok kíváncsian léptek az épületbe, a küszöbön az igazgató maga fogadta őket, amit szokatlan kiváltságnak éreztek. Pedig az igazgató mindig ügyelt arra, hogy maradjon ideje az új diákokkal foglalkozni. „Körülvezetem önöket, hogy kialakuljon némi elképzelésük arról, milyen körülményeket teremtünk az itt dolgozóknak” – közölte, nem kis büszkeséggel.
„Kezdjük mindjárt az elején” – mondta, s a diákok közül a buzgóbbak sebesen jegyzetelték szavait: „kezdjük az elején”. Az első teremben szürke köpenyes emberek ültek a számítógépek előtt, mellettük – mindenkinek pontosan a saját szemmagasságában – könyvtartó, automata lapozóval, mely percenként lapozott egyet. Ők voltak az Epszilonok, az adatrögzítők

  #18
2006-03-01 00:00:00

Biostatisztika 18.

Most a bináris adatok elemzéséről lesz szó. Olyan mérésekről, melyeknek csak két lehetséges kimenetelük van: hatott/nem hatott, meggyógyult/nem gyógyult meg. Ha kétféle kezelést akarunk összehasonlítani, akkor a végeredmény jellemzésére mindössze négy szám elegendő. Nézzünk például egy régi, Karl Pearson (1857–1936) által közzétett adatsort, melyet az angol katonák tífusz elleni oltása kapcsán gyűjtött össze körülbelül 100 évvel ezelőtt: egy kórházban 87 olyan katona feküdt, akit korábban beoltottak, illetve 47 olyan, akit nem oltottak be. A beoltottak közül 11-en kaptak fertőzést, a be nem oltottak közül 13- an. A kérdés egyszerű: hogyan jellemezhetjük az oltás hatását?
Ahhoz képest, hogy összesen négy számról van szó, elég sokféle válasz lehetséges. Először is, kiszámíthatjuk a kockázatokat, azaz a fertőzöttek arányát mindkét csoportban: a beoltottaknál ez 11/87=0,126, míg a be nem oltottaknál ez 13/47=0,277. Majd kiszámítjuk a kettő különbségét, a kockázatcsökkenést (amelyet abszolút kockázatcsökkenésnek is neveznek, hogy megkülönböztessék a relatívtól, a valamelyik kiválasztott csoport kockázatához viszonyított százalékos csökkenéstől). Sőt, rovatunk figyelmes olvasói már tudják, hogy a kép a különbség konfidencia-intervallumának (megbízhatósági tartományának) hozzáadásával tehető teljessé. Ezzel tulajdonképp megoldódott a kérdés, még egy burkolt szignifikanciapróba-eredmény is rendelkezésünkre áll (az oltás hatása akkor szignifikáns, ha a nulla nincs benne a konfidencia- intervallumban).

  #19
2006-03-01 00:00:00

Biostatisztika 19.

Bevallom, ennek az írásnak az alapötlete nem tőlem származik. De mikor rábukkantam David Salsburg cikkére (The religion of statistics as practiced in medical journals. The American Statistician, 1985;39:220–223), úgy éreztem – orvosi szaklapok lektoraként –, sokat tudok hozzáfűzni ehhez a témakörhöz.
A frekventista statisztika olyan vallás, amelynek egyháza van, ahol az igét hirdetik, a szentségeket kiszolgáltatják és azokkal élnek. Ha volna temploma, annak tornyán minden bizonnyal csillag lenne (lehet egy, kettő, de három is – lásd sorozatunk 2. részét). Főistene a szignifikancia, akit hipotézisvizsgálatnak nevezett rítusok során próbálnak megtalálni a hívők, majd közös imák során erőt kérnek. Az erőt rendszerint elemszám formájában kapják meg az arra érdemesek (segítségükre vannak ebben az aprószentek – a validált szofverek). A hívők jutalma a földi életben a publikáció, haláluk után pedig az idézettségi index, amely a túlvilági lét során is növekedhet. Az eretnekek ugyan azt állítják, hogy a szignifikancia korántsem teljhatalmú (lásd sorozatunk 7. és 8. részét a megbízhatósági, valamint tolerancia-intervallumokról), de őket azzal fenyegetik meg, hogy örökre kirekesztetnek a komolyabb szaklapok szerzőgárdáiból.

  #20
2006-02-01 00:00:00

Biostatisztika 17.

Berger és Ioannidis biostatisztikai Dekameronja tíz rövid meséből áll (The Decameron of poor research, BMJ 2004;329: 1436–1440). Érdemes kicsit elmerülni az elsőben.   „Első mese, amelyben Federigo, a fiatal kutatóorvos segítségért folyamodik a vancouveri elvek védelme érdekében. Majd – miután titkos tárgyaláson vesz részt, ahol a tudományos szerzőség mélyebb filozófiai jelentését vitatják meg – spontán tapsban tör ki és térdet hajt mestere előtt.”  Aldobrandino és Federigo munkatársak voltak egy világhírű intézetben. Tonnányi elemzés és rengeteg átdolgozás után Aldobrandino elküldte közös tanulmányuk végleges változatát Federigóhoz, utolsó, jóváhagyó átolvasásra. A válasz bizalmas e-mailben érkezett. „Kedves barátom – írta Federigo –, ez az együttműködés kivételes élmény volt számomra. Mindazonáltal rossz hírem van. Immár heten vagyunk szerzők: Guglielmo mester, az igazgató, aki a véremet szívja ugyan, de nem akarom, hogy véget vessen a karrieremnek. Monna Nonna, a feleségem, akinek publikációra van szüksége ahhoz, hogy állást kapjon. Peronella, aki az enyémmel szomszédos laborban dolgozik, ezért a jó kapcsolat megőrzése számomra igen fontos. Tedaldo pedig az én szépreményű tanítványom, az ő önéletrajzát is gazdagítanunk kell. Aztán itt van még Guglielmo mesternek egy régi társszerzője, a nevét ugyan már elfelejtette, de majd holnap utánanéz.” Federigo rövid utóiratot is hozzáfűzött. „Láttad már az X egyetemen közzétett munkámat? Sokan X-et tartják a világ legjobb egyetemének. Életem eme fő művében heten voltunk szerzők, közülük hárman semmivel nem járultak hozzá a munkához, sőt olyan is volt, aki nem is tudott a projektről egészen addig, míg meg nem kapta a szerzőknek járó különlenyomatot.”

  #21
2005-12-01 00:00:00

Tanmese az E-vitaminról

Sorozatunk korábbi két részéből kiderült, hogy jó metaanalízist készíteni igen nehéz, néha még a legtekintélyesebb lapok szerzőinek is beletörik a bicskája. Példa erre az idei év egyik legvitatottabb cikke.
Az E-vitamin dózis–hatás függvényét vizsgáló átfogó elemzés, amelynek – címében is megfogalmazott – következtetése, hogy a nagy dózisban adott E-vitamin növeli a halál kockázatát (High-Dosage Vitamin E Supplementation May Increase All-Cause Mortality. Annals of Internal Medicine 2005; 142:37–46) mindössze tíz oldalt tett ki, ám a cikkre rövid időn belül 30 válasz érkezett olvasói levél formájában. A véleményt nyilvánítók száma azonban jóval meghaladta a 30-at, mert a válaszokban legtöbbször kutatócsoportok fogalmazták meg közös nézeteiket.

  #22
2005-12-01 00:00:00

Csipetnyi jótékony anarchia

A biostatisztikus éppen anyagot gyűjtött az esélyhányadosról készülő írásához. Fáradtan lapozgatott a cikkek között, amikor megakadt a szeme egy címen: „Le az esélyhányadossal!” Ez a harcias hangnemű közlemény (az Evidence- Based Medicine című lapban jelent meg 1996-ban) azt fejtegette, mennyire félrevezethet az esélyhányados bizonyos esetekben, mennyivel célszerűbb a kockázatcsökkenésre és a kezelési minimumra alapozni az elemzéseket. Nem csoda, hogy így vélekedik a szerző – gondolta magában –, hisz ő a kezelési minimum (number needed to treat, NNT) egyik leglelkesebb híve. Hát igen, a biostatisztikusnak is lehetnek preferenciái, tartozhat különböző iskolákhoz és irányzatokhoz. Még a kívülállók sem gondolhatják, hogy a számokhoz kapcsolódó tudományokban nincs szerepe az érzelemnek. Matematikailag bebizonyítható, hogy az erős meggyőződésen nem sokat változtat egy ellene szóló bizonyíték.

  #23
2005-11-01 00:00:00
A vizsgálati eredmények sokféleképp – véletlenül és szándékosan is – befolyásolhatók. Áttekintjük a leggyakoribb veszélyeket, és szó esik egy bizonyos fordított tölcsérről, amelynek szimmetrikusnak kell lennie.
    A legutóbbi számunkban részletezett metaanalízis a biostatisztika egyik legvitatottabb eszköze. „Fegyverré vált” – mondják egyesek, mások ennél sarkosabban is fogalmaznak (pl. „megahülyeség”). Lelkes hívei viszont newtoni jelentőségű felfedezésnek tartják azt az eljárást, amely leggyakrabban egy egyszerű súlyozott átlag kiszámításából áll. A metaanalízisről alkotott végletes véleményeknek az lehet az oka, hogy a eredményén néha nagyon fontos döntések múlnak, miközben ez nagyon sokféle módon befolyásolható. A „befolyás” szó itt egyaránt jelenthet az elemző szándékától függetlenül fellépő torzítást, illetve szándékos manipulációt.
  #24
2005-10-01 00:00:00

Sorozatunk e része – amelyben csalásokra figyelmeztetünk – akár a hamisítók kézikönyvébe is bekerülhet. Szándékunk szerint azonban inkább az orvosi szakirodalom megítélésében nyújthat segítséget: megmutatja, hol vannak a vizsgálatok gyanúsnak tekinthető, tüzetesebb elemzésre érdemes pontjai.

Minden tudományágnak vannak varázsigéi, amelyek hallatán a kétkedők elnémulnak, a viták lecsendesednek. A klinikai kutatásban ez a varázskifejezés a Helyes Klinikai Gyakorlat (Good Clinical Practice, GCP), amely a klinikai vizsgálatok – ma már kötelező – tudományos és etikai feltételrendszerét jelenti. Sokféle szerepe van: a vizsgálatban részt vevő betegek jogainak védelme, az adatok helyes kezelésének szabályozása, a mellékhatások jelentési módjának meghatározása stb.
A GCP megszegése az eredmények torzításához vezethet, ezeket a torzításokat próbálta meg rangsorolni Al-Marzouki és munkatársai nemrég készült felmérése (The effect of scientific misconduct on the results of clinical trials: A Delphi survey. Contemporary Clinical Trials 2005;26:331– 337). Kétféle rangsor is készült, az egyik a torzítás súlyossága, a másik pedig előfordulási valószínűsége szerint.

  #25
2005-10-01 00:00:00

Szabad-e összeadni az almák és a körték számát? Az általános iskolában nem, de a klinikai vizsgálatoknál gyakran rákényszerülünk. Szerencsére vannak olyan változók, amelyekkel mégis összegezhető ez a sokféle eredmény.

Ki ne ismerné az alábbi paradoxont:
Ebben a keretes részben egy hamis kijelentés van

Alighanem mindenkinek a „meta” szó jut erről eszébe, hiszen ez a fenti paradoxon feloldásának kulcsszava. A szövegről szóló szöveg: a metaszöveg. Hasonlóképpen a klinikai vizsgálatok metaanalízise: a vizsgálatokról szóló vizsgálat, az elemzések elemzése.
 „Szakmánk egyik nagy hiányossága, hogy nem tudtuk létrehozni a véletlen besorolásos, kontrollos klinikai vizsgálatok – terápiás területenként csoportosított és rendszeresen frissített – kritikai összegzését.” – írta Archie Cochrane (1909–1988) 1979-ben. A brit kutató tulajdonnevéből mára intézménynév lett: napjainkban több mint 60 ország több mint 6000 kutatója dolgozik a Cochrane- adatbázis feltöltésén, a rendszeres kritikai összefoglalók megírásán. Az adatbázis minden évben több száz protokollal és elemzéssel bővül. A metaanalízisek egyik legelismertebb gyűjteménye, de alapanyagot szolgáltat további metaanalízisekhez is.
Az előbbiekből úgy tűnhet, hogy a metaanalízis csak a klinikai vizsgálatok eredményeinek összegzésére szolgál. (Talán közmondás is lehet belőle: „Ha kevés az adatod, toldd meg egy metaanalízissel.”) Pedig a metaanalízis ma már az egészségügyi politikába közvetlenül is beleszólhat, a különböző betegségek szűrésére és gyógyítására fordítandó összeg kiszámítása és az ajánlott gyógyítási protokollok kialakítása révén.

  #26
2005-09-01 00:00:00

Azok a vizsgálati elrendezések, melyeket sorozatunk előző részében ismertettünk, arra törekednek, hogy rugalmasabbá tegyék a korábbi, szigorúan rögzített „klasszikus” elrendezéseket. Ez teljesen természetes, hiszen minek befejezni egy vizsgálatot, ha már sejthető, hogy a vizsgált módszer nem hatékony, vagy minek folytatni az információgyűjtést azokról a dózisokról, amelyek már hatástalannak bizonyultak. Különös jelentőségűek a rugalmas vizsgálati elrendezések a rákkutatásban, ahol alapelv, hogy egy készítmény csak addig adható egy betegnek, ameddig – az orvostudomány pillanatnyi állása szerint – nem létezik jobb gyógyszer.

A rugalmasság ára

Ha ennyivel etikusabb (és a kisebb betegszám miatt olcsóbb is) egy rugalmas elrendezésű vizsgálat, akkor vajon miért nem alkalmazzák gyakrabban? Leginkább azért, mert a rugalmasságnak ára van, melyet elsősorban az első fajta hibánál kell megfizetni. Ha egy folyamatban lévő vizsgálat adataiba való betekintés (ún. köztes vagy interim analízis) alapján döntést hoznak arról, hogy folytatják- e vagy abbahagyják a vizsgálatot, akkor – folytatás esetén – a vizsgálat végén hozott pozitív döntés hibája (a hatástalan gyógyszer hatásosnak nyilvánítása) már nagyobb lesz, mint a statisztikai próba névleges első fajta hibája.

  #27
2005-09-01 00:00:00

A mintaelemszámnak egyrészt elég nagynak kell lennie ahhoz, hogy a klinikai vizsgálat eredménye és az abból levont következtetés megalapozott legyen, ugyanakkor a lehető legkisebbnek, hogy a placebóval vagy a kevésbé hatásos készítménnyel való kezelésben ne részesüljön indokolatlanul sok beteg. Talán ezért szokták a nevét némi tisztelettel említeni – becsléséhez statisztikai tudás és jóstehetség egyaránt szükségeltetik.

A statisztikus rémálma

A klinikai vizsgálatot tervező statisztikus rémálma a p=5,1 százalékos végeredmény. Ilyenkor mindenki tervezési hibát sejt, különösképpen akkor, ha az eredmény klinikailag releváns. Lehet ugyan magyarázkodni, hogy az 5 százalékos küszöbérték teljesen önkényes – de a döntéshozatalban általában szükség van előre megszabott feltételekre. Az 5 százaléknak amúgy is igen tekintélyes a múltja (lásd keretes írásunkat). Nézzük hát, miből áll egy mintaelemszám-meghatározás, miután rögzítették az első és második fajta hibát.

  #28
2005-08-01 00:00:00
A klinikai vizsgálatok tervezésénél nagyon fontos szempont a „lehető legkisebb torzítás” elve, azaz a különböző – ismert vagy korábban még nem ismert – zavaró tényezők hatásának csökkentése. A torzítást ugyanis általában úgynevezett zavaró tényezők okozzák, amelyek miatt a vizsgálatban tapasztalt hatás (a kezelési csoportok közti eltérés) nem tulajdonítható pusztán csak a kezeléseknek. A torzítás egyik gyakori fajtája a beválasztási torzítás, amelyet többféle zavaró tényező okozhat, például: a súlyosabb állapotú betegek nagy része ugyanabba a kezelési csoportba kerül, a két kezelési csoportban jelentősen eltérő a betegek átlagos életkora stb. A torzítás következménye, hogy a vizsgálatban becsült hatás jelentősen eltér a valóditól. (A torzítás egy másik típusával, a publikációs torzítással sorozatunk negyedik részében foglalkoztunk – Medical Tribune 2005/7. szám, április 14., 16. oldal.) A zavaró tényezők kiküszöbölésének jól bevált eszköze a véletlen besorolás (randomizálás). Általánosan elfogadott vélemény, hogy a torzítás mértékét legjobban csökkentő és ilyen értelemben a legmegbízhatóbb bizonyítékokat szolgáltató vizsgálattípus a véletlen besorolásos, kontrollos, kettős vak vizsgálat. 1998 októberében, az első ilyen vizsgálat közlésének ötvenedik évfordulóján a British Medical Journal egész számot szentelt ennek a vizsgálattípusnak, melynek kidolgozása egyes szerzők szerint az utóbbi ötven év gyógyszerkutatási módszertanának legnagyobb eredménye. A véletlen besorolásnak elvileg olyan vizsgálati csoportokat kell eredményeznie, amelyek – kellően nagy minta esetén – csak a vizsgálni kívánt hatás terén eltérőek. A tapasztalat szerint azonban – különösen kis betegszám vagy sok zavaró tényező esetén – a véletlen besorolással létrehozott betegcsoportok jelentősen különbözhetnek. Ennek orvoslására különböző besorolási eljárásokat javasoltak, melyek egyben új vizsgálati elrendezésekhez is vezettek.
  #29
2005-06-01 00:00:00

Mint minden rendes tudományágnak, így a biostatisztikai gondolkodásmódnak is megvoltak a maga különböző korszakai. Az első fajta hiba gyakoriságának elsődlegessége az úgynevezett frekventista szemléletmód alaptétele (melyben közvetve az is benne van, hogy az ismeretlen populáció jellemzőit – átlagát, szórását – a frekventisták rögzítettnek tekintik). A „rivális” filozófiai irányzat a bayesiánus, amely szerint az említett jellemzők nem kőbe vésett, rögzített számok, hanem valamilyen valószínűségi eloszlást követnek és a cél ennek az eloszlásnak a minél pontosabb megközelítése. A legújabb teória pedig a két elmélet egyfajta ötvözete, mely a téves felfedezések arányához kapcsolódik. (A téves felfedezések arányával, az úgynevezett érdekes p-vel már foglalkoztunk és reményeink szerint a bayesiánusok is sorra kerülnek majd rovatunkban.) Egyelőre azonban a frekventista szemléletmód uralja a gyógyszerek törzskönyvezésével kapcsolatos statisztikai területeket, egyrészt azért, mert gyorsabb és gyakorlatiasabb, másrészt azért, mert jelentős előnyre tett szert a számítógép előtti időkben.
Az első fajta hiba egyeduralma tehát egyelőre nem forog veszélyben, azonban a statisztikai elemzésnek nem egyetlen és kizárólagos célja a döntéshozatal. A különböző (beteg vagy egészséges) populációk jellemzőinek megismerése, becslése is fontos. Ahol pedig becsült értékek vannak, ott előkerül a becslés pontosságának kérdése is.

  #30
2005-06-01 00:00:00
Sorozatunk előző részében láttuk, hogyan számíthatjuk ki a becsült értékek konfidenciaintervallumát, behatárolva ezzel például egy hatásmutató ismeretlen populációs átlagának nagyságát (adott megbízhatósággal). Azért pont az átlagét, mert a gyógyszerek megméretése legtöbbször az átlagos hatás alapján történik (bár a bizonyítási eljárás, azaz a statisztikai próba az átlagot valamely más paraméterhez, a szóráshoz vagy a standard hibához viszonyítja). Ezekben a vizsgálatokban a szórás meghatározása önmagában nem fontos, csak viszonyítási alapul szolgál. Amolyan muszájparaméter, mely koloncként lóg a statisztikai próbán (angol megjelölése: nuisance parameter).
Pedig a gyógyszerszedő ember számára még a konfidenciaintervallumal ékesített átlagos hatás sem tartalmaz túl sok információt. Karinthyt („Véget ért a nagy járvány. Hurrá, ma már csak én haltam meg!”) parafrazeálva: „Felfedezték betegségem kiváló gyógyszerét. Beszedtem és megtudtam, hogy nem vagyok átlagos ember.” (A generikumokkal kapcsolatban néha felmerülő gyanakvásnak is az az alapja, hogy csak „átlagosan” kell megegyezniük az eredeti gyógyszerrel.) Ha egy normális eloszlású hatásmutatónak ismerjük a populációs átlagát és szórását, akkor pontosan meg tudjuk mondani, hogy a populáció hány százaléka tartozik egy adott intervallumba.
Ha például egy fogyókúrás szer átlagosan 5 kg súlycsökkenést eredményez, s a csökkenések szórása 2 kg, akkor a gyógyszerszedők 95 százalékának súlycsökkkenése nagyobb lesz 1 kg-nál és kisebb 9 kg-nál. Az intervallum végpontjainak kiszámításában a szórás már nem kolonc, hanem teljes jogú paraméter. De csak akkor számolhatunk ezzel a módszerrel, ha ismerjük a paraméterek „valódi”, populációra vonatkozó értékét.
  #31
2005-05-01 00:00:00

Ez nem véletlen, ez vélet.” Karinthy

 Eddigi példáink mindegyikében szerepe volt a véletlennek, annak, hogy a klinikai vizsgálatok adatait általában nem a teljes betegpopuláció körében gyűjtik, hanem annak egy részében, egy – előre megszabott feltételek alapján, de találomra kiválasztott – betegmintában. A beválasztási és kizárási kritériumok, valamint a vizsgálat rögzített helyszíne(i) miatt a klinikai vizsgálatok résztvevőivel kapcsolatban ugyan nem mondhatjuk, hogy a minta teljesen véletlenszerű, de a véletlennek azért több területen is marad szerepe.

A „téves” bevonás valószínűsége

Vizsgáljunk meg egy nagyon egyszerű beválasztási kritériumot, például azt, hogy „a beteg szisztolés vérnyomása ne legyen nagyobb 140 Hgmm-nél”. Első látásra ez valóban egyszerű, megmérik a beteg vérnyomását és a mérés eredménye alapján egyértelműen eldönthető, hogy a beteg beválasztható- e vagy sem. Csakhogy: ha egy másik műszerrel is megmérnék, vagy ugyanazzal a műszerrel mérnék meg kicsit később, nem biztos, hogy ugyanabba a kategóriába sorolnák az illetőt.

  #32
2005-04-01 00:00:00

Sorozatunk ötödik részéhez érve vessünk egy pillantást rövid múltunkra. Először az első fajta hibával foglalkoztunk, jelezve a fogalom kiemelt szerepét a hipotézisvizsgálatban. A frekventista szemléletmód az első fajta hiba alacsony szinten tartását kívánja meg. Bár a vizsgálatokat általában úgy tervezik, hogy a második fajta hiba szintje se haladja meg a 20 százalékot, azonban e hibával kapcsolatos számításokban az első fajta hiba szintje már eleve rögzített (általában 5 százalék). Ez az 5 százalékos szint kiállta az elmúlt évszázad minden próbáját, ebből pedig arra következtethetünk, hogy általában a biológusok, orvosok megfigyeléseivel összhangban levő eredményekhez vezetett, máskülönben nem válhatott volna ennyire népszerűvé. De mindez valóban egyetlen hipotézisre, egyetlen statisztikai próbára érvényes.
 
Egy régi ötlet

Előző számunkban idéztük Le Fanu nagy visszhangot kiváltó véleményét, mely szerint inkább zárjanak be minden epidemiológiai központot, semmint hogy 5 százalékos szinten szignifikáns kockázati tényezőkkel riogassák az embereket. Több kockázati tényező, azaz több nullhipotézis esetén az 5 százalékosnál jóval alacsonyabb szinten kellene tartani az egy hipotézisre jutó első fajta hibát, lehetőleg úgy, hogy a teljes elemzés összesített hibája se haladja meg az 5 százalékot.

  #33
2005-03-01 00:00:00

 Sorozatunkban – amelynek szerzője a Magyar Biostatisztikai Társaság elnöke – olyan fogalmakra világítunk rá, amelyek birtokában más szemmel tekintünk egy-egy közleményre. A statisztikai próba kiindulási alapja a nullhipotézis. A klinikai vizsgálattól ennek a nullhipotézisnek a cáfolatát várjuk.

 A klinikai vizsgálat során összegyűlt adatok elemzésekor – amikor vizsgálati alanyok értékeiből következtetünk a teljes lakosságra – mindig fennáll a téves döntés lehetősége. Ne számolási hibára gondoljunk, hanem a minta véletlenszerű összeállításából fakadó hibákra (lásd keretes írásunkat). Az úgynevezett első fajta hibát akkor követjük el, ha az adatokból számolt statisztika alapján elvetjük a – valójában igaz – nullhipotézist. Fontos tehát, hogy az első fajta hiba kellően alacsony maradjon (felső határaként legtöbbször 5 százalékot írnak elő, ezt fejezi ki a p< 0,05 jelzés), ez az ún. szignifikanciaszint.

  #34
2005-03-01 00:00:00
 Ha az első fajta hibát (lásd Medical Tribune 2005. 4. szám, 14. oldal) a fogyasztó kockázatának nevezzük, akkor a második fajta hiba a kutató kockázata. Első fajta hibát akkor követünk el, ha az adatokból számolt statisztika alapján elvetjük a valójában igaz nullhipotézist. Második fajta hibát pedig akkor, ha elfogadjuk a hamis nullhipotézist, például hatástalannak véljük a hatékony gyógyszert. Az első fajta hiba alacsony szinten tartásáról maga a statisztikai próba gondoskodik a gyakran bálványként tisztelt p-érték és elődei, vagyis a csillagok által. Talán az én generációm az utolsó, amelyik egykor – számítógépes eszközök híján – a *=p<0,05, **=p<0,01, ***=p< 0,001 jelölésekkel „számlálta a csillagokat
  #35
2005-03-01 00:00:00

 Aki két rész megjelenése után hűséges olvasójává vált ennek a rovatnak, az már megtanult szembenézni a különböző fajta hibákkal (első fajta hiba: 2005. 4. szám, 14. oldal; második fajta hiba: 5. szám, 12. oldal). Esetleg korábbi biostatisztikai tanulmányaiból tudja, hogy kétfajta hiba létezik, így e harmadik rész címe láttán tehát bizonyára meglepődik. Ha cikkünk olvasása helyett a biostatisztikai kislexikont ütné fel, hogy kikeresse benne a harmadik hibafajtát, nem találná meg benne.

 Nézzük, miről is van szó. Két populáció és egy igen/nem döntést igénylő kérdés (bináris változó) felvetésekor kétféle hiba létezik: 1. a populációk nem nyilváníttatnak egyformáknak, pedig valójában azok, 2. egyformáknak nyilváníttatnak, pedig nem azok. Arról is szóltunk már, hogy a gyógyszerek hatékonyságát igazolni szándékozó klinikai vizsgálatok esetében az említett egyformaság általában egy aktív gyógyszerrel és egy placebóval kezelt populációnak az összehasonlítására vonatkozik, méghozzá a gyógyítandó betegség valamilyen mutatójára nézve (visszatérő példánk, a fogyókúrás szer esetében a fő hatásmutató rendszerint a testsúly, de lehet a testtömegindex is vagy a haskörfogat, bármi, amivel a fogyás mértékét jellemezhetjük).

hirdetés
hirdetés

A környéki idegrendszer megbetegedéseit összefoglaló néven neuropátiáknak hívjuk. A neuropátiák jóval gyakoribbak, mint a központi idegrendszer betegségei, mégis méltatlanul a neurológia „perifériáján” helyezkednek el.

hirdetés

A december végén megjelent jogszabály változások, így a fix díj elvonása, és az új indikátor rendszer bevezetése korántsem segíti a magyar közfinanszírozott alapellátás működését.