Rozsudok v kauze Heppner

Úvod: Prečo rozsudok v kauze Heppner je dôležitý aj pre slovenských advokátov ako užitočná lekcia používania AI #
V digitálnej ére sa hranica medzi efektívnosťou a rizikom stáva čoraz tenšou. Nedávny rozsudok federálneho súdu v USA, United States v. Heppner, vyvolal vlnu obáv v celej globálnej právnickej komunite. Sudca Jed Rakoff, známy svojou intelektuálnou prísnosťou, rozhodol, že komunikácia s AI chatbotom môže zničiť advokátske tajomstvo aj ochranu pracovných produktov (work-product protection)[1].
Pre slovenských advokátov a právnych konzultantov nejde len o vzdialený americký precedens. V prostredí, kde sú profesijné tajomstvo a GDPR základnými piliermi dôvery, tento rozsudok odhaľuje kritické zraniteľnosti v tom, ako pristupujeme k moderným technológiám. Ak používate AI nástroje bez hlbokého porozumenia ich zmluvným podmienkam, riskujete nielen stratu dôvernosti klientových dát, ale aj disciplinárne stíhanie.
Tento článok analyzuje rozhodnutie v kauze Heppner, aplikuje jeho logiku na slovenský právny poriadok a prináša zásadné varovanie: používanie spotrebiteľských (consumer) verzií AI nástrojov je pre profesionálnu právnu prax neakceptovateľným rizikom. Jedinou cestou vpred sú certifikované enterprise riešenia s jasne definovanými zárukami ochrany údajov.
"Rozsudok v kauze Heppner nie je len o technológii; je to varovný signál, že súdy nebudú chrániť dôvernosť tam, kde ju samotný používateľ dobrovoľne obetoval na oltár pohodlia spotrebiteľských aplikácií."
United States v. Heppner: Detailný rozbor zásadného rozhodnutia#
Skutkový stav a jadro sporu#
Bradley Heppner, obvinený z podvodov s cennými papiermi, použil spotrebiteľskú verziu AI modelu Claude od spoločnosti Anthropic na organizáciu svojej obhajoby. Do systému vložil informácie, ktoré predtým konzultoval so svojimi právnikmi, a nechal si vygenerovať správy o stratégii obhajoby. Keď FBI tieto dokumenty zaistila, Heppner sa pokúsil uplatniť advokátske tajomstvo a ochranu pracovného produktu.
Súd však jeho argumenty zmietol zo stola. Kľúčovým faktorom boli podmienky ochrany súkromia (Privacy Policy) spoločnosti Anthropic platné vo februári 2025. Tie výslovne uvádzali, že spoločnosť zbiera vstupy aj výstupy, používa ich na trénovanie modelu a vyhradzuje si právo zdieľať tieto dáta s tretími stranami, vrátane vládnych orgánov, a to aj bez súdneho príkazu[2].
Prečo súd odmietol ochranu?#
Sudca Rakoff dospel k záveru, že Heppner nemal "primerané očakávanie dôvernosti". Tým, že dobrovoľne zdieľal informácie s platformou, ktorá si vyhradzuje právo na ich zverejnenie, sa vzdal ochrany, ktorú by inak požíval v komunikácii so svojím advokátom. Súd zdôraznil, že Claude nie je advokát a komunikácia s ním nie je chránená len preto, že sa týka právnych otázok[3].
Prečo AI chatbot nie je váš advokát: Problém s attorney-client privilege#
Absencia právneho vzťahu#
Základným predpokladom advokátskeho tajomstva je komunikácia s osobou oprávnenou poskytovať právne služby. V slovenskom kontexte to znamená advokáta zapísaného v komore. AI model, bez ohľadu na jeho schopnosť citovať judikáty, nespĺňa zákonné definície subjektu viazaného profesijným tajomstvom podľa zákona o advokácii.
Ak klient vkladá citlivé informácie do AI nástroja bez priameho pokynu a dohľadu advokáta, dochádza k prezradeniu tajomstva tretej osobe. V momente, keď dáta opustia chránenú sféru advokáta a klienta a vstúpia do infraštruktúry komerčného poskytovateľa so širokými právami na spracovanie, ochrana zaniká.
Riziko straty ochrany pracovného produktu#
Ochrana pracovného produktu (work-product) sa vzťahuje na materiály pripravené v očakávaní sporu. V kauze Heppner súd uviedol, že hoci pro se účastník môže požívať určitú ochranu, použitie verejne dostupného chatbota na prípravu stratégie túto ochranu neguje. Pre slovenskú prax to znamená, že rešerše alebo návrhy podaní vytvorené v bezplatných verziách AI môžu byť v rámci dokazovania napadnuteľné a vynútiteľné protistranou.
"Ak informáciu zdieľate s entitou, ktorá ju môže použiť na trénovanie svojich algoritmov, fakticky ste túto informáciu zverejnili celému svetu – len s určitým časovým oneskorením."
Pasca v podmienkach používania: Keď „Consumer“ verzia ničí mlčanlivosť#
Diskrečné zverejňovanie vs. zákonná povinnosť#
Väčšina spotrebiteľských AI nástrojov obsahuje doložky o diskrečnom zverejňovaní. To znamená, že poskytovateľ (napr. OpenAI, Anthropic, Google) môže vaše dáta sprístupniť tretím stranám nielen vtedy, keď mu to ukladá zákon, ale aj vtedy, keď to považuje za potrebné na ochranu svojich záujmov alebo bezpečnosti platformy[1]. Táto široká formulácia je v priamom rozpore s povinnosťou mlčanlivosti advokáta.
Trénovanie modelov na klientskych dátach#
Najväčším rizikom spotrebiteľských verzií je využívanie vstupov na trénovanie budúcich iterácií modelu. Ak do ChatGPT (free verzia) vložíte detaily o akvizičnej stratégii vášho klienta, tieto informácie sa môžu stať súčasťou štatistických váh modelu. Existuje teoretické (a v niektorých prípadoch aj praktické) riziko, že model v budúcnosti vygeneruje podobnú informáciu inému používateľovi, čím dôjde k nenávratnému úniku informácií.
- Consumer verzie: Dáta sú aktívom poskytovateľa na vylepšovanie služieb.
- Enterprise verzie: Dáta sú izolované v rámci vášho tenantu a nie sú použité na trénovanie globálnych modelov.
- Právny dopad: Použitie consumer verzie je vnímané ako súhlas so zdieľaním, čo ničí dôvernosť.
Slovenský a európsky kontext: GDPR a ochrana profesijného tajomstva#
Povinnosti podľa zákona o advokácii#
Slovenský advokát je povinný zachovávať mlčanlivosť o všetkých skutočnostiach, o ktorých sa dozvedel v súvislosti s výkonom advokácie. Táto povinnosť je absolútna a jej porušenie môže viesť k vyčiarknutiu zo zoznamu advokátov. Používanie nástrojov, ktoré explicitne deklarujú právo na prístup k dátam zo strany poskytovateľa, je hazardom s licenciou.
GDPR a článok 32: Bezpečnosť spracúvania#
Podľa GDPR musí prevádzkovateľ (advokátska kancelária) prijať primerané technické a organizačné opatrenia na zaistenie bezpečnosti. Spotrebiteľské AI nástroje často nespĺňajú požiadavky na spracovateľskú zmluvu (DPA) podľa článku 28 GDPR, ktorá by striktne obmedzovala účel spracovania len na poskytovanie služby advokátovi. Bez takejto zmluvy je akýkoľvek prenos klientskych dát do AI nelegálnym prenosom údajov.
Judikatúra ESĽP a ochrana súkromia#
Európsky súd pre ľudské práva (ESĽP) v rámci článku 8 Dohovoru priznáva zvýšenú ochranu komunikácii medzi advokátom a klientom. Avšak táto ochrana predpokladá, že strany využívajú komunikačné kanály, ktoré sú primerane zabezpečené. Dobrovoľné využitie platformy s otvorenými podmienkami spracovania dát by mohlo byť interpretované ako vzdanie sa práva na súkromie v danej veci.
"V EÚ nie je otázkou len to, či je komunikácia privilegovaná, ale či je spracovanie údajov zákonné. Bez Enterprise zmluvy je odpoveď takmer vždy 'nie'."
Kritické varovanie pre prax: Prečo sa musíte vyhnúť bezplatným a spotrebiteľským nástrojom#
Riziko "Turtles all the way down"#
Problém s dôvernosťou v cloude je vrstevnatý. Aj keď je samotný AI nástroj relatívne bezpečný, beží na infraštruktúre (AWS, Azure, Google Cloud), ktorá má vlastné podmienky. Rozsudok Heppner naznačuje, že ak sú podmienky na ktorejkoľvek úrovni príliš permisívne, môže to ohroziť celú reťaz dôvernosti[1]. Spotrebiteľské nástroje majú tieto podmienky nastavené na maximálne vyťažovanie dát, nie na ich ochranu.
Dôkazná núdza a zodpovednosť za škodu#
Predstavte si situáciu, kde protistrana v spore navrhne výsluch poskytovateľa AI služby alebo si vyžiada logy vašej komunikácie s chatbotom. Ak ste používali spotrebiteľskú verziu, nebudete mať žiadnu právnu oporu na zablokovanie takéhoto dôkazu. Následná škoda spôsobená klientovi by bola pripísaná na vrub vašej profesijnej nedbanlivosti.
Zoznam zakázaných praktík pre právnikov:#
- Vkladanie celých zmlúv alebo podaní do bezplatnej verzie ChatGPT.
- Používanie AI chatbotov na analýzu citlivých dôkazov bez Enterprise licencie.
- Zdieľanie identifikačných údajov klientov v promptoch.
- Využívanie AI pluginov tretích strán, ktoré nemajú jasné bezpečnostné certifikácie (SOC 2, ISO 27001).
Enterprise riešenia ako jediná bezpečná cesta: ChatGPT Enterprise, Google Workspace a Claude Teams#
Rozdiel v zmluvných zárukách#
Na rozdiel od spotrebiteľských verzií, Enterprise edície (napr. Microsoft 365 Copilot, ChatGPT Enterprise, Claude Enterprise, google Workspace) sú postavené na úplne inej právnej architektúre. Ich podmienky zvyčajne zahŕňajú:
1. Zákaz trénovania: Poskytovateľ garantuje, že vaše dáta nebudú použité na vylepšovanie globálnych modelov.
2. Dátová izolácia: Vaše dáta zostávajú v rámci vášho firemného prostredia (tenantu).
3. Prísne DPA: Zmluvy o spracovaní údajov sú plne v súlade s GDPR a obmedzujú prístup tretích strán len na nevyhnutné zákonné minimum s povinnosťou notifikácie používateľa.
Claude Enterprise a Anthropic#
Aj Anthropic, ktorého sa kauza Heppner priamo týkala, ponúka Enterprise a Team plány. Tieto verzie majú odlišné Privacy Policy, ktoré sú navrhnuté tak, aby eliminovali riziká identifikované sudcom Rakoffom. Používanie týchto verzií vytvára "primerané očakávanie dôvernosti", ktoré je nevyhnutné pre ochranu privilégia[4].
Strategický rámec pre bezpečnú implementáciu AI v právnej praxi#
Test primeranej cloudovej dôvernosti#
Advokáti by v praxi mali aplikovať Test primeranej cloudovej dôvernosti pred nasadením akéhokoľvek AI nástroja[1]. Tento test zahŕňa štyri otázky:
1. Udržiava reálna prax poskytovateľa (nielen boilerplate v ToS) skutočnú dôvernosť?
2. Zdieľa poskytovateľ obsah s tretími stranami mimo zákonne vynútených procesov?
3. Má používateľ v úmysle zdieľať informáciu s treťou stranou, alebo ju len spracováva cez sprostredkovateľa?
4. Sú ochranné mechanizmy (retencia, šifrovanie) porovnateľné s platformami ako Outlook alebo OneDrive?
Praktické kroky pre advokátov a adv. kancelárie#
Pre boutique kancelárie je kľúčové zaviesť internú smernicu pre používanie AI. Táto smernica musí striktne zakazovať používanie osobných účtov na pracovné účely. Každý zamestnanec musí byť preškolený v tom, ako formulovať prompty tak, aby neobsahovali priame identifikátory (anonymizácia dát pred vložením do AI).
Audit dodávateľského reťazca#
Právnici musia rozumieť nielen AI nástroju, ale aj tomu, kde sú dáta fyzicky uložené. V kontexte SR a EÚ je preferované ukladanie dát v rámci EHP (Európsky hospodársky priestor), aby sa predišlo komplikáciám s prenosom dát do tretích krajín podľa kapitoly V GDPR.
"Technológia sa mení, ale etické štandardy advokácie zostávajú pevné. Našou úlohou nie je AI odmietať, ale skrotiť ju tak, aby slúžila klientovi bez ohrozenia jeho práv."
Záver: Budúcnosť AI v advokácii je v profesionalizácii#
Rozsudok v kauze United States v. Heppner nie je koncom AI v práve, ale koncom jej naivného používania. Pre slovenských advokátov je to jasná výzva na profesionalizáciu digitálnych nástrojov. Prechod od spotrebiteľských aplikácií k enterprise riešeniam nie je len otázkou vyšších nákladov, ale základnou podmienkou výkonu povolania v 21. storočí.
V SKALLARS Law veríme, že hlboká expertíza zahŕňa aj technologickú obozretnosť. Strategická hodnota, ktorú prinášame našim klientom, stojí na neotrasiteľnom základe dôvery a mlčanlivosti. Implementáciou správnych nástrojov a procesov dokážeme využiť silu AI a zároveň garantovať, že tajomstvá našich klientov zostanú presne tým, čím majú byť – tajomstvami.
Zdroje a referencie#
- Rothken, I. P. (2026). The Privilege Problem: How One Federal AI Ruling Could Chill Cloud-Based Legal Practice.
- BakerHostetler. (2026). AI Is Not Your Lawyer: Federal Court Rules AI-Generated Documents Are Not Privileged.
- O’Melveny & Myers. (2026). SDNY First-of-its-Kind Ruling: AI-Generated Documents Are Not Privileged.
- Brooks Pierce. (2026). S.D.N.Y. Case Presents Cautionary Tale for AI Privilege Issues.
- Anthropic. (2025). Policy for Handling Governmental Requests for User Information.
Sources & References#
- The Privilege Problem: How One Federal AI Ruling Could Chill Cloud-Based Legal Practice
- AI Is Not Your Lawyer: Federal Court Rules AI-Generated Documents Are Not Privileged
- SDNY First-of-its-Kind Ruling: AI-Generated Documents Are Not Privileged
- S.D.N.Y. Case Presents Cautionary Tale for AI Privilege Issues