A jogszabály fénypontja a megközelítése az AI különféle alkalmazásaihoz kapcsolódó kockázatok alapján. A törvény a mesterséges intelligencia rendszereit négy kategóriába sorolja, amelyek mindegyike meghatározott követelményekkel és kötelezettségekkel rendelkezik. Az első kategória, az úgynevezett „Elfogadhatatlan kockázat”, tiltja azokat a technológiákat, amelyek sötét mintákat, viselkedési manipulációt, társadalmi pontozást és biometrikus azonosítást tartalmaznak, kivéve bizonyos esetekben és szigorú feltételek mellett.
A második csoport, az úgynevezett „nagy kockázatú mesterséges intelligencia”, a biometrikus elemektől a kritikus infrastruktúrákig terjedő alkalmazásokat foglalja magában, mint például a közúti forgalom, víz-, gáz- és áramellátás, oktatás, foglalkoztatás, alapvető szolgáltatások, bűnüldözés, migráció, menekültügy és határellenőrzési igazgatás, valamint az igazságszolgáltatás és a demokratikus folyamatok. Ezeknek a rendszereknek független ellenőrzésen kell átesnie annak biztosítása érdekében, hogy megfeleljenek a magas kockázatú technológiákra vonatkozó követelményeknek.
A harmadik kategória, a „Korlátozott kockázat” magában foglalja olyan alkalmazások, mint a chatbotok, biometrikus kategorizáló rendszerek, érzelem azonosítás és mély hamisítványok. Ezeknek a rendszereknek meg kell felelniük az átláthatósági szabványoknak, hogy a felhasználók megértsék és megfelelően használják a rendszert.
A negyedik és egyben utolsó csoport, a „Minimális kockázat” olyan egyéb mesterséges intelligenciarendszereket foglal magában, amelyek nem szerepelnek az előző kategóriákban. Bár nem vonatkoznak rájuk kötelező követelmények, ezeket a technológiákat arra ösztönzik, hogy önkéntesen megfeleljenek bizonyos, az Európai Bizottság által kidolgozandó és közzéteendő magatartási kódexekben meghatározott normáknak.
A jog alkalmazhatósága kiterjed az Európai Unió területén használt vagy hatásokat kiváltó mesterséges intelligencia-rendszerekre. Ezen túlmenően a meg nem felelésért kiszabott szankciók jelentősek, az adminisztratív bírságok elérhetik a 35 millió eurót vagy a jogsértés időpontját megelőző pénzügyi év teljes éves üzleti tevékenységének 7%-át.
Ez a jogalkotási lépés jelentős előrelépést jelent az emberek jogainak védelmében a gyorsan fejlődő technológiával szemben, különösen akkor, ha sokan nem értik teljesen a mesterséges intelligencia hatókörét és kockázatait. A mesterséges intelligencia típusai és a kapcsolódó kockázatok közötti különbségtétel ésszerű megközelítés, figyelembe véve az AI-rendszerek alkalmazási lehetőségeit.
Azonban egy olyan összetett és folyamatosan fejlődő iparágban, mint a mesterséges intelligencia, bármilyen szabályozás végrehajtása jelentős kihívásokat jelent. Kulcsfontosságú olyan egyensúly megtalálása, amely nem szegi kedvét a kreativitásnak és az innovációnak, miközben biztosítja az egyéni jogok megfelelő védelmét. Ebben az összefüggésben az Európai Unió a mesterséges intelligencia szabályozásában világelsőként pozicionálja magát, abban a reményben, hogy ez a jogszabály példaként szolgál majd a jövőbeli szabályozási intézkedésekhez világszerte.
Bár néhány lépés még mindig várható. A 2026-os hatálybalépése előtti jogalkotási folyamatban ez a törvény döntő lépést jelent egy olyan szabályozási keret létrehozása felé, amely globálisan irányítja a mesterséges intelligencia felelős fejlesztését.