AI Act: Proč by firmy neměly čekat s přípravou na AI regulaci

Květen 2026

Používání umělé inteligence ve firmách už dávno není jen otázkou inovací. Stává se regulatorním tématem, které bude mít v nejbližších letech přímý dopad na každodenní provoz organizací.

 AI Act přitom nepřináší jeden „velký den účinnosti“, ale postupné nabíhání jednotlivých povinností v několika etapách. Právě období let 2025 až 2028 bude pro organizace z pohledu AI regulace zcela zásadní.

Proč jsou následující roky klíčové

Nařízení EU o umělé inteligenci (AI Act) postupně nabývá účinnosti. Od 2. srpna 2026 se začnou významně uplatňovat mimo jiné:

  • požadavky na transparentnost AI systémů,
  • část pravidel dopadajících na vysoce rizikové AI,
  • povinnosti týkající se řízení rizik, dokumentace a dohledu.

Evropská komise dne 7. května 2026 oznámila politickou dohodu k tzv. Digital Omnibus on AI, jehož cílem je zjednodušit implementaci AI Act a posunout část povinností pro vysoce rizikové AI systémy.

Současně ale Evropská komise i evropský zákonodárce potvrzují, že cílem není pouze regulace, ale také zjednodušení a praktičtější implementace pravidel pro organizace.

Podle aktuálně oznámené dohody se má část pravidel pro high-risk AI systémy nově začít uplatňovat až od:
• 2. prosince 2027 u části samostatných vysoce rizikových AI systémů,
• 2. srpna 2028 u AI integrované do některých regulovaných výrobků.

To ale neznamená, že organizace přípravy odložit.

Požadavky na transparentnost AI systémů podle čl. 50 AI Act, interní governance, práci s daty nebo základní řízení AI rizik totiž zůstávají pro organizace relevantní už v souvislosti s datem 2. srpna 2026, přestože se část povinností pro vysoce rizikové AI systémy na úrovni EU aktuálně posouvá.

Pro řadu organizací to znamená zásadní změnu:
AI už nebude možné pouze používat, ale bude nutné ji také právně a procesně uchopit.

Nejčastější omyl: „Používáme jen běžné nástroje“

Mnoho firem předpokládá, že se na ně regulace nevztahuje, protože AI „jen používají“. Právě zde ale vzniká největší riziko.

Rozhodující není, zda AI vyvíjíte, ale:

  • jak ji používáte,
  • k jakému účelu,
  • s jakými daty pracuje,
  • zda ovlivňuje rozhodování o lidech nebo významné firemní procesy.

V některých případech se i běžně používaný nástroj může dostat do režimu regulace.

Právě proto Evropská komise současně avizovala vydání dalších metodických materiálů, zejména k určování vysoce rizikových AI systémů a k transparentnostním povinnostem.

Co je (a není) vysoce riziková AI

Jedním z klíčových konceptů AI Act je kategorizace AI systémů.

Právě určení, zda je systém vysoce rizikový, má zásadní dopad na:

  • rozsah povinností,
  • požadavky na dokumentaci,
  • nastavení lidského dohledu,
  • odpovědnost organizace.

Chybná klasifikace přitom patří mezi nejčastější problémy v praxi.

Nová dohoda na úrovni EU současně potvrzuje, že pravidla pro některé oblasti vysokého rizika – například biometriku, kritickou infrastrukturu, vzdělávání, zaměstnanost nebo migraci – budou aplikována postupně, aby firmy měly více času na přípravu a aby byly dostupné technické standardy a podpůrné nástroje.

Tři otázky, které by si měla položit každá organizace

Ještě před samotným řešením AI Act je vhodné začít u základních otázek:

  1. Kam skutečně putují data při používání AI nástrojů?
  2. Jaký je rozdíl mezi veřejnými nástroji, cloudovým řešením a lokálním provozem?
  3. Jak se do každodenního provozu promítají požadavky na transparentnost a řízení rizik?

Právě tyto otázky často rozhodují o tom, zda je organizace na regulaci připravena.

Co byste měli začít řešit už nyní

S ohledem na blížící se účinnost pravidel je vhodné:

  • zmapovat používané AI nástroje,
  • posoudit jejich rizikovost,
  • nastavit základní interní pravidla,
  • zapojit právní, IT i compliance perspektivu,
  • vyhodnotit datové toky a práci s osobními či důvěrnými údaji,
  • připravit se na požadavky transparentnosti a interní dokumentace

Chcete se zorientovat rychle a prakticky?

Těmto tématům se budeme věnovat na webináři dne 22. května 2026:

AI v praxi: jak se zorientovat v požadavcích AI Act a co znamená 2. 8. 2026

  • prakticky, srozumitelně a na reálných příkladech
  • včetně zkušeností z nasazení AI v advokátní kanceláři
  • zaměřeno i na praktické dopady nových změn a zjednodušení na úrovni EU

Informace obsažené v tomto bulletinu jsou prezentovány podle našeho nejlepšího vědomí a přesvědčení v době jeho vydání. Před jakýmkoli rozhodnutím byste si však měli ověřit konkrétní informace týkající se témat obsažených v tomto bulletinu. Informace obsažené v tomto bulletinu by neměly být vykládány jako vyčerpávající popis relevantních otázek a případných důsledků a neměly by být plně spoléhány v jakýchkoli rozhodovacích procesech ani považovány za náhradu za konkrétní právní poradenství, které by bylo relevantní pro konkrétní okolnosti. Advokátní kancelář Weinhold Legal, s.r.o. ani žádný z advokátů uvedených jako autor informací nepřijímá žádnou odpovědnost za jakoukoli újmu, která může vzniknout v důsledku spoléhání se na zde zveřejněné informace. Dále je třeba poznamenat, že na některé otázky nastolené v tomto bulletinu mohou existovat různé právní názory vzhledem k nejednoznačnosti příslušných ustanovení a v budoucnu může převážit jiný výklad, než jaký uvádíme my.

Automatické vytěžování textů a dat i rozmnožování či extrakce jejich obsahu pro účely automatizované analýzy z tohoto informačního materiálu je ve smyslu čl. 4 směrnice 2019/790/EU a § 39c zákona č. 121/2000 Sb., autorského zákona, bez výslovného předchozího písemného souhlasu společnosti Weinhold Legal, s.r.o. advokátní kancelář zakázáno, ledaže při jakémkoliv takovém použití bude autorství společnosti Weinhold Legal, s.r.o. advokátní kancelář výslovně uvedeno, a to spolu s odkazem na umístění takového textu a dat.

© 2025 weinhold legal

Všechna práva vyhrazena.

Kontaktujte nás

Kancelář Praha 

Zobrazit na mapě

Kancelář Brno

Zobrazit na mapě

Aktuální informace

Získejte novinky ze světa práva

Jak nakládáme s osobními údaji je popsáno zde.

We apologize, but there is no translation for this page.