Az EU AI Act 2026 augusztusi határideje közeledik. Egy strukturált audittal pontosan megtudod, hogy a céged hol áll — és mit kell tenni a megfelelőségért. Mi nem prezentálunk, hanem megírjuk, beállítjuk és karbantartjuk.
Az EU AI Act négy kockázati kategóriába sorolja az AI rendszereket — és minden kategóriához más-más kötelezettségek tartoznak. Az audit első lépése pontosan ennek a besorolásnak az elvégzése.
Manipulatív technikák, social scoring, korlátlan biometrikus azonosítás, érzelem-felismerés munkahelyen. Ezek 2025 februártól tilosak az EU-ban.
Kockázatkezelési rendszer, dokumentáció, human oversight, logging, transparency, conformity assessment. 2026 augusztustól alkalmazandó.
Tájékoztatási kötelezettség: a felhasználónak tudnia kell, hogy AI-val kommunikál vagy AI-generált tartalommal találkozik (deepfake jelölés).
A legtöbb AI rendszer ide tartozik. Nincs külön kötelezettség, de ajánlott a code of conduct és a 4. cikk szerinti AI literacy biztosítása.
Egy alapfelméréssel kezdesz, majd ha rendezni kell, beépítjük a hiányzó governance és technikai elemeket. A folyamatos megfelelés havidíjas, és bármikor lemondható.
Egy strukturált audit, amelyből pontosan megtudod, mely AI rendszereid esnek a rendelet hatálya alá és mit kell tenni.
A teljes megfelelőség kiépítése — nemcsak felmérjük, hanem meg is írjuk és beállítjuk, amire szükség van.
A megfelelőség nem egyszeri projekt. Folyamatosan figyeljük, frissítjük és karbantartjuk a céged AI compliance státuszát.
Az ár függ az AI rendszerek számától, a folyamatok komplexitásától, a meglévő dokumentáció szintjétől és az AI kitettség mértékétől. Pontos ajánlatot az audit igénylés után 48 órán belül küldünk.
Minden szolgáltatás önállóan is megrendelhető — de általában csomagban a leghatékonyabb, mert sok elem egymásra épül.
A céged minden AI eszközének, integrációjának és használati körének átfogó dokumentálása.
Minden AI rendszer besorolása az EU AI Act 4 kockázati kategóriájába, a III. melléklet alapján.
Gap assessment: pontos lista arról, mi hiányzik a céged jelenlegi gyakorlatából a rendelethez képest.
Prioritizált, határidős remediation roadmap, amit egy KKV reálisan be tud tartani.
Belső AI policy, használati szabályzat, döntési hierarchia, felelősök kijelölése — mind készen.
Human oversight protokoll: ki, mikor, hogyan ellenőrzi az AI döntéseket — folyamatba ágyazva.
Logging architektúra és audit trail beállítása — megfelelően a rendelet 12. cikkének.
Transparency notices, ügyfél tájékoztatók, deepfake jelölések — magyarul, használható formátumban.
Incident response playbook AI hibák és biztonsági események kezelésére, hatósági bejelentési folyamattal.
Negyedéves review, jogszabály-változás követés, új AI rendszerek folyamatos auditja.
Az AI security szolgáltatásainkat a Marberton Limited (UK) AI security szakértőivel közösen nyújtjuk. Ez azt jelenti, hogy a magyar piac ismerete és a nemzetközi best practice egy projektben találkozik.
A Marberton mélyebb technikai szaktudást hoz: LLM security, vendor risk assessment, threat modeling, AI red teaming. A magyar oldali ügyfélkapcsolatot, projektmenedzsmentet és implementációt a Workflo. végzi.
Bővebben a partnerségről5 perces kérdőív, 48 órán belüli válasz. A pontos ár, hatókör és időzítés a céged adottságaira szabva.
A legtöbbet visszatérő kérdések a kockázati besorolásról, a gap assessment-ről és a partnerségről.
Tiltott (manipulatív, social scoring, valós idejű biometrikus azonosítás stb.); magas kockázatú (HR, hitel, oktatás, kritikus infrastruktúra); korlátozott kockázatú (chatbotok, deepfake — átláthatósági kötelezettség); minimális kockázatú (egyéb). Minden AI rendszered besoroljuk az audit során.
A gap assessment egy szisztematikus összehasonlítás a céged jelenlegi AI gyakorlata és az EU AI Act elvárásai között. Pontosan megmondjuk, mi hiányzik és mit kell pótolni — prioritás és határidő szerint rendezve.
A rendelet nem ír elő külön AI tisztviselőt minden cégnek, de a 4. cikk szerinti AI literacy kötelezettség és a kockázatkezelés gyakorlatban megköveteli, hogy legyen kijelölt felelős. KKV-knál ez általában a CEO, COO vagy IT vezető, akit mi képzünk be a feladatra.
AI rendszerleltár, kockázati osztályozás, AI használati szabályzat, human oversight protokoll, logging és audit trail, transparency notices, incident kezelési folyamat, belső képzési anyagok. Mindegyiket sablonosan és cégspecifikusan elkészítjük.
A Marberton Limited (UK) AI security szakértői a technikailag mélyebb kérdéseket (LLM security, vendor risk, threat modeling) hozzák a projektekhez, valamint nemzetközi best practice-eket. A magyar oldali kapcsolattartást és implementációt a Workflo. végzi.