Hír

AI Act megfelelés 2026: high-risk AI rendszerek gyakorlati felkészülés

AI Act megfelelés 2026: mit kell tényleg rendbe tenni a
high-risk AI rendszereknél?

Az AI már nem “csak egy eszköz” – hanem irányítási
kérdés

Sok szervezetnél az AI még mindig egy izgalmas tech projekt: kipróbáljuk, bevezetjük,
használjuk. De 2026-tól ez a szemlélet kevés lesz. A kérdés már nem az, hogy használsz-e
mesterséges intelligenciát, hanem az, hogy kézben tudod-e tartani.

A high-risk AI rendszereknél a szabályozás azt fogja vizsgálni, hogy a működés kontroll alatt
van-e. Ki felel érte? Milyen kockázatokkal számolsz? És ha egy döntés félremegy, vissza
tudod-e fejteni, mi történt?

Amikor az AI kilép az IT-ból

Ez az a pont, ahol sok szervezet meglepődik. Az AI már nem marad az IT vagy az
adatvédelmi csapat ügye. Ha egy rendszer döntésekre hat – például ügyfelekről,
kockázatokról vagy működésről –, akkor az vezetői felelőssé válik.

Olyan ez, mint egy autopilóta az autóban: attól, hogy bekapcsolod, még nem dőlhetsz hátra
teljesen. Tudnod kell, mikor működik jól, mikor hibázhat, és mit csinálsz, ha probléma van.

A gyakorlatban ez azt jelenti, hogy az AI-t nem elég „használni”. Be kell építeni a
kockázatkezelésbe, kontrollok közé kell tenni, és ki kell jelölni, ki viszi a felelősséget érte.

A valós kihívás: tudod egyáltalán, hol használod?

Az egyik leggyakoribb probléma meglepően prózai: a szervezetek nem látják át teljesen, hol
jelenik meg AI a működésükben. Egy-egy funkció be van építve rendszerekbe, beszállítói
megoldásokba, platformokba – és közben senki nem kezeli egységesen.

A felkészülés ezért nem szabályzattal kezdődik, hanem feltérképezéssel. Hol használod az AI-
t, milyen döntésekre hat, milyen adatokat mozgat, és milyen szerepben vagy jelen –
fejlesztőként vagy felhasználóként.

És itt jön a lényeg: attól, hogy egy külső megoldást használsz, a felelősség nem kerül át
automatikusan a beszállítóra.

A valódi kérdés: kontroll alatt van – vagy csak működik
valahogy?

A high-risk AI rendszereknél a dokumentáció nem adminisztráció, hanem bizonyíték. Azt kell
tudnod megmutatni, hogyan működik a rendszer, milyen kockázatokat kezelsz, és hogyan
követhető vissza egy döntés.

Ha ez felkeltette a figyelmed, érdemes most ránézni a saját működésedre. A legtöbb
szervezetnél az AI már jelen van – csak nem mindig irányított módon.

A 2026-os megfelelésnél pedig pontosan ez fog eldőlni: nem az, hogy használod-e az AI-t,
hanem az, hogy valóban kézben tartod-e.