Irányítási keretrendszer nélkül az MI alkalmazása rémálommá válhat
A vezérigazgatók 80%-a egyértelműen hatékonyságnövekedésről számolt be az AI-nak köszönhetően, és az érintett vállalatok több mint egytizedében a bevétel és a jövedelmezőség is nőtt a technológia jóvoltából1. Megfelelő AI governance, azaz az AI-rendszerek irányításának és felügyeletének keretei nélkül viszont az AI-kockázatok valós krízishelyzeteket okozhatnak. A PwC Trust in AI szakértői cikksorozatban mutatják be, mi mindenre érdemes figyelniük a szervezeteknek.
A vállalatok minden iparágban igyekeznek kihasználni a mesterséges intelligencia (AI) kínálta lehetőségeket, hogy versenyelőnyt szerezzenek a működési kiválóság, a munkavállalói elkötelezettség és költséghatékonyság terén. Ezek az előnyök kockázatokkal is járnak, és a megfelelő AI governance, azaz az AI-rendszerek irányításának és felügyeletének keretei nélkül a kockázatok – a többi között az üzleti bizalomvesztés, a jogszabályi nem megfelelés, anyagi és reputációs károk – valós krízishelyzeteket okozhatnak.
A mesterséges intelligencia hatékony irányítási keretrendszerének kialakításában a PwC Responsible AI Insights tudásbázisa és egy most induló, Trust in AI szakértői cikksorozat támogatja a szervezeteket.
Az AI hatékony irányításának megszervezéséhez az szükséges, hogy a szervezet rendelkezzen olyan funkciókkal, amelyek átlátják a különböző AI-kezdeményezéseket, beleértve az esetleges engedély nélküli AI használatot is.
„Stabil adat- és hozzáférési alapokra lehet csak AI-t építeni, így válik a governance gátló tényező helyett a felelős és hosszú távon értéket teremtő AI zálogává. Biztosítani kell az alapadatok minőségét, azok forrásait és a hozzáférési jogokat, hogy az AI etikus és hosszú távon értékteremtő módon működhessen” – hangsúlyozza Reizinger Hajnalka, a PwC adatvagyon-védelmi szakértője.