hirdetés
2018. december. 18., kedd - Auguszta.
hirdetés

 

Bio(t)error

Az egzisztenciális kockázatok kutatása azt vizsgálja, hogyan tudná a tudomány elpusztítani az életet, és hogyan lehetne azt megakadályozni, írja az OTSZ Online.

hirdetés

A University of Oxford filozófusa, Nick Bostrom úgy véli, megvan rá az esély, hogy a mesterséges intelligencia (AI) megléte miatt a Homo sapiens kihal. Mint a University of Cambridge keretein belül szerveződött Centre for the Study of Existential Risk (CSER) vezetője, a szintén filozófus Huw Price az egzisztenciális kockázatok kutatására szerveződött intézeteket bemutató Science-cikkben (Kai Kupferschmidt: Taming the Monsters of Tomorrow) elmondja: az ilyen forgatókönyvek manapság többet jelentenek egyszerű science fiction-nél, a kutatóintézetekben dolgozó néhány tucatnyi tudós munkája pedig felhívja a figyelmet azokra a lehetséges veszélyekre, amelyek valóban fenyegetik fajunkat. A CSER nagynevű támogatókat is szerzett magának: tudományos tanácsadó bizottságának tagja a fizikus Stephen Hawking, George Church, a Harvard biológusa, Peter Piot egészségügyi vezető és a tech vállalkozó Elon Musk is. A központ 12 dolgozója előadásokat szervez, különböző témákban publikál (pl. hogyan kellene szabályozni a szintetikus biológiát, melyek lehetnek az ökológiai buktatók), próbál meggyőzni más kutatókat, hogy foglalkozzanak a jövőbeli fejlődési lehetőségekkel, és ideje legnagyobb részét azzal tölti, hogy megpróbál elképzelni világvége-forgatókönyveket és azok lehetséges ellenszereit, közli a lap.

A harvardi mikrobiológus Marc Lipsitch kiszámolta, mi a valószínűsége, hogy egy laboratóriumban előállított influenza vírus véletlen baleset következtében kiszabadul és pándémiát okoz: ennek esélye kutatási évenként 1/1000 és 1/10 000 közötti egyetlen laborban Mivel azonban valószínűtlen, hogy a vírusok minden egyes embert kiirtsanak, a legtöbbek szerint a valódi egzisztenciális kockázatot az AI jelenti, és nem azáltal, hogy esetleg fellázadna teremtője ellen, hanem egy esetleges végzetes hiba elkövetése miatt, pl. olyan környezet létrehozásával, ami fatális az ember számára. Mindazonáltal, napjainkban kevesebb mint 20 ember foglalkozik teljes munkaidőben technikai AI biztonsági kutatással.

(forrás: otszonline.hu )
hirdetés
Olvasói vélemény: 0,0 / 10
Értékelés:
A cikk értékeléséhez, kérjük először jelentkezzen be!
hirdetés
hirdetés

Könyveink