2024. április. 27., szombat - Zita.

Öngyilkosságra is buzdíthat az MI

Ráfér a mesterséges intelligenciára egy jó adag érzelmi intelligencia is, ugyanis rengetegen használják csalásra, sőt egy esetben egy belga férfit öngyilkosságra biztatott, írja az Index.

„Már a mai világunkban is megfigyelhető, hogy elmosódó érzelmi határok keletkeznek az ember és az AI között” – világított rá Kiss-Gy. Máté, az Asura Technologies Zrt. elnök-vezérigazgatója az ECNMX AI Summit konferencián.

A cégvezető erre példának egy fél évvel ezelőtti esetet hozott, amikor egy belga férfit a nyelvi modell öngyilkosságra buzdított.

A férfi felesége név nélkül nyilatkozott a La Libre belga lapnak, elmondva, hogy férje hat héttel a halála előtt kezdett el csevegni Elizával, egy olyan chatrobottal, amelyet egy amerikai startupcég hozott létre a GPT-J technológia – az OpenAI GPT-3 nyílt forráskódú alternatívája – felhasználásával. A chatbot gyakorlatilag megerősítette a felhasználót abban, hogy jogosak az érvei az öngyilkosság mellett. Itt első ízben volt emberi sors az AI kezében – de biztosan nem utoljára – fogalmazott Kiss-Gy. Máté. A technológia sötét oldala azonban itt nem áll meg, ugyanerre példa az új dimenziós limitált hangszínjátékokkal létrejövő csalások.

Amerikában egy új típusú unokázós csalás valósul meg: a csalók hanggeneráló mesterséges intelligenciával (AI) veszik rá az áldozatokat arra, hogy fizessenek nekik, akár az unoka hangján megszólalva tudnak pénzt kérni a nagyszülőktől. Ugyanígy olyan esetre is van példa, amikor hanggeneráló AI egy nagy cég főnökét veszi rá arra, hogy utalásokat intézzen; az AI az asszisztens hangját utánozhatja – világított rá a cégvezető, aki szerint fontos látni azt is, hogy még soha, senkivel nem léptünk olyan interakcióba, ami annyira hasonlóan reagál ránk, mint egy másik ember tenné.

A teljes információ

(forrás: Index)
Olvasói vélemény: 0,0 / 10
Értékelés:
A cikk értékeléséhez, kérjük először jelentkezzen be!