Egységes fellépés az MI használatával kapcsolatban: itt vannak a válaszok az uniós jogszabály legfontosabb kérdéseiről
A mesterséges intelligencia (MI) villámgyors fejlődése és terjedése egyaránt tartogat számtalan pozitívumot és potenciális kockázatot is. Az unió elébe megy a problémáknak és hatékony szabályozást, valamint felügyeletet vezet be.
A mesterséges intelligencia vagy röviden MI kifejezés lassan senki számára nem lesz ismeretlen, hiszen annak térnyerését napról napra érezhetjük a saját életünkben, a mindennapjainkban is. Az új technológia számos előnyt hordoz magával a jobb orvosi ellátástól kezdve a színvonalasabb oktatásig.
A mesterséges intelligencia technológiai fejlődésének és terjedésének gyorsasága azonban kérdéseket vethet fel. Míg a legtöbb MI rendszer nem jelent kockázatot, léteznek olyan változatok, melyekkel, a nemkívánatos hatások elkerülése érdekében, foglalkozni kell.
A technológia veszélyeinek minimálisra csökkentése és a pozitívumok leghatékonyabb kihasználása érdekében az EU az egységes fellépés mellett döntött. Az uniós jogszabály a világon az első, amely átfogóan foglalkozik a mesterséges intelligencia kérdéskörével, beleértve az egészséget, a biztonságot és az alapvető jogokat érintő kockázatokat. A rendelet védi továbbá a demokráciát, a jogállamiságot és a környezetet is.
Az új jogszabállyal kapcsolatban felmerült kérdések és a részletes válaszok megismerhetőek az europa.eu oldalon.
Miért kell szabályozni a mesterséges intelligencia használatát?
Az MI-t számos területen használják már, viszont kihívást jelentenek az olyan alkalmazások, mint a biometrikus azonosító rendszerek vagy a mesterséges intelligencián alapuló döntéshozatal a munkaerő-felvétel, az oktatás, az egészségügy vagy a bűnüldözés területén. Többek között ezekre a potenciális rendszerszintű kockázatokra tekintettel vezeti be az EU az egységes szabályozást és felügyeletet.
Kikre vonatkozik a mesterséges intelligenciáról szóló jogszabály?
A jogi keret az EU-n belüli és kívüli állami és magánszereplőkre egyaránt vonatkozik, amennyiben MI-rendszert hoznak forgalomba az uniós piacon, vagy MI-rendszerük használata érinti az EU-ban tartózkodó embereket. Az ingyenes és nyílt forráskódú modellek szolgáltatói e kötelezettségek többsége alól mentesülnek.
A Bizottság olyan kockázatalapú megközelítést javasolt, amely négy szintet különböztet meg, valamint meghatározza az általános célú modellekre jellemző kockázatokat:
1. minimális kockázat
2. magas kockázat
3. elfogadhatatlan kockázat
4. átláthatósággal kapcsolatos egyedi kockázat.
Az oktatás és foglalkoztatás területén
1. a tanulmányi eredmények értékelése,
2. a tanulási folyamat irányítása,
3. a csalások leleplezése,
4. foglalkoztatás,
5. a munkavállalók irányítása és
6. az önfoglalkoztatáshoz való hozzáférés, pl. célzott álláshirdetések közzététele, álláspályázatok elemzése és szűrése, valamint a jelöltek értékelése is mind a magas kockázatú felhasználási esetek kategóriájába tartoznak.
Milyen szankciókra lehet számítani jogsértés esetén?
A rendelet követelményeit nem teljesítő MI-rendszerek forgalomba hozatala, illetve használata esetére a tagállamoknak a jogsértésekkel kapcsolatban hatékony, arányos és visszatartó erejű szankciókat állapítottak meg, ideértve a közigazgatási bírságokat is, melyekről tájékoztatniuk kell a Bizottságot.
További információk: Artificial Intelligence – Q&As (europa.eu)