Akt o umělé inteligenci je tady

Evropská unie (EU) dne 12. července 2024 zveřejnila Nařízení (EU) č. 2024/1689 (Akt o umělé inteligenci), které se tak stalo první komplexní právní úpravou umělé inteligence (AI) na světě. Cílem Nařízení je stanovit jasné povinnosti pro ochranu zdraví a základních lidských práv a pro zajištění bezpečnosti a souladu s hodnotami EU. Nařízení je dostupné v různých jazykových verzích na EUR-Lex.

Evropská unie uvedla v platnost Akt o umělé inteligenci

Koho se nařízení týká

Nařízení se vztahuje na všechny poskytovatele uvádějící systémy AI do provozu nebo na trh, subjekty, které zavádějí systémy AI, dovozce a distributory systémů AI, výrobce produktů a další dotčené osoby. Nařízení se uplatní bez ohledu na to, zda jsou poskytovatelé či zavádějící subjekty usazeny v EU nebo ve třetí zemi, pokud se výstup systémů AI používá v rámci EU.

Firmy by nyní měly zmapovat svá stávající AI řešení a ověřit, zda vyhovují nové legislativě. Pokud plánujete vyvíjet nová AI řešení, je nezbytné zajistit jejich soulad s požadavky nařízení EU AI Act. V rámci spolupráce firem Etnetera Group a Pierstone nabízíme službu AI Audit, která vám pomůže posoudit stávající nebo budoucí AI řešení. Služba zahrnuje technické a právní posouzení, návrh vhodné infrastruktury, bezpečnostní analýzu, klasifikaci AI systému a zajištění souladu s nařízením EU AI Act. Kontaktujte nás a zajistěte, že vaše AI řešení budou plně vyhovovat novým regulacím.

Platnost a účinnost Nařízení

Nařízení vstupuje v platnost 1. srpna 2024, avšak použitelnost jednotlivých částí s konkrétními povinnostmi je stanovena postupně během několika následujících let.

Oblasti úpravy

Nařízení upravuje zejména:

  • Rizika, která vznikají používáním systémů AI;
  • Zakázané postupy v oblasti AI, které představují nepřijatelné riziko;
  • Seznam vysoce rizikových systémů AI, se kterými jsou spjaty požadavky na jejich vytváření a zavádění;
  • Požadavky (zejména) transparentnosti pro obecné systémy AI (GPAI);
  • Požadavek na posouzení shody před vstupem daného AI systému na EU trh;
  • Strukturu řízení na evropské a národní úrovni.

Klasifikace systémů AI podle rizika

Nařízení stanovuje požadavky na systémy AI na základě úrovně hrozby, kterou představují pro základní lidská práva, zdraví či bezpečnost.

Vysoce rizikové AI systémy: hlavní povinnosti

  • Registrace ve veřejném registru EU pro vysoce rizikové AI systémy.
  • Povinnost zhodnotit dopad takových systémů na základní práva a svobody subjektů.
  • Transparentnost včetně pokynů pro použití a technických specifikací.
  • Zavedení systémů pro interní řízení rizik a kvality, včetně správy dat.
  • Povinnost zavést ve vybraných případech a formách lidský dohled.
  • Zajištění robustnosti a kybernetické bezpečnosti, pravidelné testování a monitoring.

Pravidla pro obecné modely AI (GPAI)

Na obecné modely AI se uplatní mírnější pravidla pro jejich vývoj a následné používání. Zavedeny jsou zejména požadavky na transparentnost, vedení a aktualizaci příslušné dokumentace nebo zajištění souladu s autorským právem EU.

V rámci obecných modelů AI je vymezena specifická kategorie těchto modelů na základě jejich výpočetního výkonu – obecné modely AI se systémovým rizikem. Pokud by takový model selhal nebo byl zneužit, mohlo by to mít negativní dopady na různé oblasti, jako je zdravotnictví, doprava, finance nebo veřejná správa. To je důvod, proč jsou na tyto modely kladeny přísnější požadavky v oblasti kybernetické bezpečnosti, oznamování incidentů nebo provádění hodnocení a testování modelů AI.

Evropský úřad pro umělou inteligenci (AI Office)

Evropská komise zřídila na základě Nařízení nový regulační orgán na úrovni EU, Evropský úřad pro umělou inteligenci, který bude působit v rámci Generálního ředitelství pro komunikační sítě, obsah a technologie (DG CNECT) Evropské komise.

Úřad pro umělou inteligenci bude monitorovat, dohlížet a prosazovat požadavky Nařízení týkající se obecných modelů AI (GPAI) ve všech 27 členských státech EU. To zahrnuje analýzu nepředvídaných systémových rizik vyplývajících z vývoje a zavádění GPAI, jakož i provádění hodnocení modelů a vyšetřování případů možného porušení Nařízení. S cílem usnadnit poskytovatelům GPAI dodržování Nařízení a zohlednit jejich perspektivy bude Úřad vypracovávat dobrovolné kodexy správné praxe.

Autoři:

Karina Matevosjanová, Pierstone

Václav Peterka, Etnetera Group

Služba AI Audit:

V rámci spolupráce Etnetera Group a kolegů z právní kanceláře PIERSTONE nabízíme službu AI audit.

Máme postup, který posoudí vaše stávající, nebo budoucí řešení jak po technické, tak právní stránce, aby vyhovělo výkonnostním, bezpečnostním a právním požadavkům, zejména regulaci spojené s EU AI Act.

Ať už jste firma, která již provozuje AI řešení formou vlastního modelu v on-premise nebo v cloudu, nebo využíváte cloudové AI služby a neřešili jste dosud, kam se ukládají data a zda vaše řešení splňuje bezpečnostní, legislativní či výkonové požadavky pro vaše současné i budoucí projekty, naše služba AI Audit vám s tím pomůže..

V Rámci spolupráce s Asociace.AI zároveň testujeme připravenost firem na AI podle AIRI (více informací).

Přečti si taky