Fyzická, právnická a elektronická osoba?
Evropská zpráva s doporučeními pro Komisi týkající se občanskoprávních předpisů v oblasti robotiky (Report with recommendations to the Commission on Civil Law Rules on Robotics) ze dne 31. května 2016 přinesla několik etických a právních otázek týkající se robotiky. Ačkoli na základě této zprávy doposud nebylo přijato žádné nařízení ani směrnice, hovoří se v něm o zavedení povinného registračního systému pro pokročilé roboty, aby bylo možné sledovat jejich pohyb a identifikovat jejich majitele, zavedení povinného pojištění odpovědnosti pro výrobce takovýchto robotů a vytvoření speciální právní kategorie autonomních robotů s vlastní právní subjektivitou. Právě této poslední otázce – právní osobnosti robotů – se budeme věnovat v tomto dalším článku ze seriálu AI a právo. Musíme ovšem začít se dvěma základními koncepty: právní osobností a svéprávností.
Právní osobnost je koncept, který právo používá k přiznávání určitého statusu jednotlivcům (fyzickým osobám), popř. skupinám osob (právnickým osobám). Pouze subjekt s právní osobností může vystupovat jako nositel práv a povinností. Bez právní osobnosti nemůžete vlastnit majetek, volit či třeba požádat o stavební povolení. Je důležité zdůraznit, že každý živý člověk od svého narození až do smrti je nadán právní osobností a nemůže jí být nijak zbaven.
Na rozdíl od právní osobnosti je svéprávnost užším pojmem. Na každý subjekt s právní osobností je totiž nadán také tzv. svéprávností. Svéprávnost je schopnost jedince jednat samostatně a být odpovědným za své jednání, což se obvykle váže k dosažení určitého věku. Dítě může vlastnit automobil, neboť jej mohlo například zdědit po smrti svých rodičů (je nadáno právní osobností), ale bez opatrovníka jej nemůže prodat (nemá totiž plnou svéprávnost).
V dnešní době tedy vážně hovoříme o přiznání právní osobnosti robotům, což by je postavilo – minimálně právním statusem – na roveň fyzickým a právnickým osobám. Takový stroj nebo systém by mohl vlastnit majetek, uzavírat smlouvy, odpovídat za způsobenou škodu či se třeba soudit s živými lidmi. Právní osobnost robotů by byla zcela novou kategorií, a proto vedle osob fyzických a právnických hovoříme o tzv. osobách elektronických.
Právnické osoby jako umělé konstrukty
Abychom rozuměli diskusi o elektronické osobě, je vhodné připomenout, že i kategorie právnické osoby je relativně pozdní a do značné míry umělý výtvor právní vědy a zákonodárce. V určité historické fázi znalo právo pouze jednotlivé lidi; teprve postupně začalo akceptovat, že některé kolektivy nebo majetkové celky je účelné považovat za samostatné subjekty.
Kořeny nalezneme již v římském právu, které přiznávalo zvláštní postavení obcím, korporacím či nadacím. Skutečný rozkvět právnických osob však přichází ve středověku a novověku: města, univerzity, církevní instituce a později obchodní společnosti začínají vystupovat jako jednotné subjekty, trvající bez ohledu na život jednotlivých členů. Právnická osoba umožňuje oddělit majetek od konkrétních lidí, zajistit trvalost určitých činností a zjednodušit právní styk – uzavíráme smlouvu „s univerzitou“ nebo „se společností“, nikoli s desítkami profesorů či společníků.
Právní věda se přitom dlouhodobě přela o to, co právnická osoba „vlastně je“. Teorie fikce pracuje s představou, že právnická osoba je pouhá právní konstrukce: „ve skutečnosti“ existují jen fyzické osoby, zatímco právnické osobě přisuzujeme osobnost jen jako fikci, aby bylo možné přehledně přiřazovat práva a povinnosti určitým organizovaným souborům lidí a majetku. Organická či reálná teorie naopak tvrdí, že právnická osoba je svébytný společenský organismus: má vlastní vůli odlišnou od vůle jednotlivých členů, vyjadřovanou prostřednictvím orgánů.
Současné pojetí se pohybuje někde mezi těmito póly. Právnická osoba je bezpochyby umělý právní konstrukt, který existuje jen díky tomu, že jej právo uznává. Zároveň se neopírá o čistou fantazii: stojí na reálném substrátu členů, orgánů, účelu a majetku. Musíme tedy připustit – alespoň ve smyslu fikční teorie, že i právnická osoba je umělým konstruktem, který právo „vymyslelo“, aby lépe obsloužilo společenskou realitu.
Právě zde se nabízí analogie pro uvažovanou elektronickou osobu. Pokud jsme byli schopni v určitém okamžiku přijmout, že vedle lidí existuje uměle vytvořená kategorie „právnická osoba“, nic nebrání úvaze, zda by nebylo možné – alespoň teoreticky – vytvořit novou kategorii osob elektronických. Rozdíl je v tom, že právnická osoba je neoddělitelně spjata s lidmi: vždy za ní stojí konkrétní fyzické osoby jako členové, společníci nebo členové orgánů, a právní řád nakonec vždy vyžaduje, aby byla její vůle utvářena a projevována lidmi.
V moderní literatuře se objevují i experimentální úvahy, zda by šlo umělou inteligenci do právnické osoby „implementovat“ tak, aby se stala jejím jediným členem nebo hlavním řídicím prvkem. Zmiňován je zejména model americké společnosti typu LLC, kdy by jediný zakladatel uzavřel s autonomním systémem smlouvu, přenechal mu řízení společnosti a následně ze společnosti vystoupil. Právně by tak společnost formálně existovala, ale fakticky by ji řídil autonomní systém.
Tato konstrukce však v konkrétních právních řádech naráží na limity. Německé právo například nepřipouští jinou než fyzickou osobu jako člena společnosti s ručením omezeným, české právo naopak výslovně neumožňuje, aby jediný člen z obchodní společnosti vystoupil bez náhrady – pokud počet členů klesne pod zákonem stanovený minimum a nedojde k nápravě, soud společnost zruší a nařídí její likvidaci. Koncept bezčlenné společnosti je sporný už v obecné rovině, natož ve scénáři, v němž by faktickou moc vykonávala AI. A především: české právo v současnosti jasně stanoví, že osobou je pouze fyzická nebo právnická osoba, a statut společností je v zásadě kogentní. Umělá inteligence tak nemůže být členem právnické osoby ani nositelem její vůle v právním smyslu.
Analogii mezi právnickou a elektronickou osobou tedy nelze přeceňovat. Přesto je poučná: ukazuje, že přiznání právní osobnosti není výsadou „přirozených bytostí“, ale nástrojem, který lze – s velkou opatrností – použít i pro umělé konstrukty, pokud pro to existuje dostatečně silný praktický důvod.
Elektronická osoba: od návrhů k opatrnosti
Evropská debata o elektronické osobě se rozhořela právě v souvislosti se zmíněnou zprávou a následnou rezolucí Evropského parlamentu z roku 2017 o občanskoprávních pravidlech pro robotiku. Parlament v ní vyzval Komisi, aby zvážila zavedení specifického právního statusu pro „nejsofistikovanější autonomní roboty“, někdy označovaného jako „elektronická osoba“, a aby přezkoumala vhodnost registračních a pojišťovacích mechanismů pro tyto systémy.
Je podstatné zdůraznit, že nešlo o zavedení takového statusu, ale pouze o politické doporučení k úvaze. Navazující studie Evropského parlamentu týkající se občanskoprávní odpovědnosti za AI pracují s elektronickou osobou spíše jako s jednou z hypotetických možností, kterou je třeba kriticky vyhodnotit vedle jiných nástrojů, jako je přísná odpovědnost, pojištění či úprava produktové odpovědnosti.
Návrh elektronické osoby vyvolal v odborné komunitě silnou kritickou odezvu. Otevřený dopis Evropské komisi, podepsaný řadou významných odborníků na robotiku a právo, výslovně varoval před vytvářením právního statusu „elektronické osoby“ pro autonomní, nepředvídatelné a samoučící se roboty s tím, že by šlo o koncept založený na nerealistickém hodnocení současných technologických schopností a potenciálně vedoucí k nežádoucímu oslabení odpovědnosti výrobců a provozovatelů.
Praktické problémy, na něž kritici upozorňují, jsou četné. Za prvé je nesmírně obtížné už jen elektronickou osobu přesvědčivě definovat: hranice mezi „obyčejným“ softwarem, pokročilým algoritmem a hypotetickou elektronickou osobou by byla nejasná a pravděpodobně by se rychle rozpadala s dalším technologickým vývojem. Za druhé je sporné, jak by se elektronická osoba podílela na majetkových vztazích: pokud by mohla nabývat majetek, musel by právní řád detailně upravit vztah mezi jejím vlastním majetkem a majetkem fyzických osob, které z ní v konečném důsledku profitují, a také její právní nástupnictví při zániku. Pokud by naopak majetek nabývat nemohla, byl by zpochybněn smysl celé konstrukce, protože odpovědnost bez majetkového substrátu by mohla fungovat pouze prostřednictvím pojištění.
Dalším problémem je riziko, že by status elektronické osoby sloužil k zakrytí skutečných nositelů odpovědnosti. Podobně jako u právnických osob existuje už dnes potřeba prorážet korporátní „závoj“ v situacích, kdy je společnost zjevně zneužívána k obcházení zákona. U elektronické osoby by nebezpečí „odpovědnostního štítu“ mohlo být ještě výraznější, protože by pokušení přenést vinu na „chytrý systém“ bylo o to lákavější, oč méně srozumitelný je jeho vnitřní chod.
Vůle elektronické osoby
Debata o elektronické osobě zároveň otevírá otázku, zda je umělá inteligence schopna projevovat vlastní vůli v právně relevantním smyslu. Pokud vůli chápeme jako proces, který zahrnuje (a) schopnost ji vytvořit, (b) projevit navenek a (c) spojit s ní úmysl vstoupit do právního vztahu, pak je nepochybné, že AI dokáže vůli „simulovat“ alespoň ve funkčním smyslu. Algoritmus může přijímat rozhodnutí na základě komplexní analýzy dat, vhodným rozhraním je může komunikovat navenek a může být nastaven tak, aby uzavíral smlouvy či obchodní transakce. Zůstává však otevřená otázka, zda jde o autonomní vůli systému, nebo jen o sofistikovanou projekci vůle tvůrců a provozovatelů.
V tomto ohledu část doktríny upozorňuje na rozdíl mezi „vůlí“ a „rozhodnutím“. Zakládací dokument právnické osoby může odkazovat na rozhodnutí činěná AI, ale to ještě automaticky neznamená, že tímto rozhodováním nahrazujeme vůli, jak ji chápe soukromé právo ve vztahu k člověku. Navíc se zdá, že technologický vývoj míří spíše k úzce specializovaným systémům spolupracujícím s lidmi, než k obecné umělé inteligenci, což použití analogie s osobou dále problematizuje.
Zajímavým případem je Estonsko, často označované za „pionýra“ v nasazení AI ve veřejné správě. Tamní diskuse o zvláštním statusu pro systémy označované jako „Kratts“ byla v médiích interpretována jako krok k elektronické osobě. Oficiální dokumenty však dospěly k závěru, že vzhledem k absenci skutečně autonomních systémů není v dohledné době potřeba zásadně měnit koncept odpovědnosti a že postačí adaptovat stávající instituty ve prospěch jasnějšího vymezení rolí a povinností lidských uživatelů a provozovatelů.
Celkově lze říci, že evropská diskuse se postupně od koncepce elektronické osoby spíše odvrací a soustředí se na cílené úpravy občanskoprávní odpovědnosti – například na kombinaci přísné odpovědnosti pro vysoce rizikové systémy a povinného pojištění – a na to, aby zůstalo zřejmé, že AI má být nástrojem sloužícím lidem, nikoli autonomním právním subjektem srovnatelným s člověkem.
Exkurz: Jak rozlišit robota od člověka?
Debata o elektronické osobě předpokládá, že vůbec dokážeme rozlišit, kdy jednáme s člověkem a kdy s „robotem“, resp. systémem umělé inteligence. Intuitivně se snažíme nalézt nějakou pevnou hranici mezi inteligencí umělou a tou „naší“, ať už ji označíme za lidskou, přirozenou či biologickou. V různých obdobích vývoje informatiky se proto objevily testy, které měly tuto hranici zachytit.
Prvním klasickým návrhem je Turingův test. Alan Turing v článku „Computing Machinery and Intelligence“ z roku 1950 nahradil neurčitou otázku „může stroj myslet?“ konkrétnější „imitační hrou“: člověk komunikuje písemně s dvěma skrytými subjekty, z nichž jeden je člověk a druhý stroj. Pokud tazatel po určité době nedokáže spolehlivě určit, kdo je kdo, považuje se stroj za „inteligentní“ v praktickém smyslu.
Dlouho se předpokládalo, že úspěšné složení takového testu je horizontem strojové inteligence. Dnes však víme, že v omezeném textovém dialogu lze člověka poměrně snadno zmást – a naopak, že schopnost vést plynulou konverzaci sama o sobě nic neříká o vnitřním porozumění či vědomí stroje. Moderní systémy generativní AI v různých variantách Turingova testu obstály, aniž bychom proto byli ochotni jim přiznat status morálního či právního subjektu.
Na Turingův test navazuje v praxi informatického práva spíše prozaický, ale mimořádně vlivný koncept CAPTCHA – „Completely Automated Public Turing test to tell Computers and Humans Apart“. Termín byl zaveden na počátku 21. století a označuje plně automatizovaný test, kterým počítač ověřuje, zda je druhá strana člověk, či bot.
Klasické CAPTCHA spočívaly v opisování zkresleného textu nebo výběru obrázků se specifickým obsahem. Z hlediska právních vztahů jde o praktickou implementaci „reverzního“ Turingova testu: tentokrát není soudcem člověk testující stroj, nýbrž server testující člověka. S rozvojem strojového učení a vizuálních modelů se však tyto testy staly problematickými – algoritmy se naučily číst deformované znaky, rozpoznávat dopravní značky na fotografiích a dokonce vznikají agentní systémy, které CAPTCHA obcházejí tím, že si najmou nic netušící lidské pomocníky, nebo dokážou jednodušší mechanismy typu „I am not a robot“ prostě odkliknout. Z původně spolehlivého filtru se tak postupně stává spíše symbolická bariéra a provozovatelé služeb ji nahrazují „neviditelnými“ testy, které na pozadí sledují chování uživatele.
Ještě jinou ambici má tzv. kávový test, připisovaný Stevu Wozniakovi. Podle této úvahy bychom za opravdu „inteligentní“ stroj považovali takový, který vstoupí do zcela cizí domácnosti, dokáže najít kuchyni, kávovar, hrnek, vodu a kávu a samostatně připraví šálek kávy, třebaže daný byt nikdy předtím neviděl.
Zatímco Turingův test je založen čistě na jazykové komunikaci, kávový test upozorňuje na něco, co současné systémy AI ještě zdaleka nezvládají: propojení porozumění, pohybu v prostoru, práce s fyzickými objekty, adaptace na nepředvídatelné uspořádání a implicitní sociální normy každodenního života. Je to spíše test „obecné“ než úzce zaměřené inteligence, která je dnes typická pro většinu nasazených systémů.
Tyto tři příklady ukazují, že hranice mezi člověkem a strojem není jednorozměrná. Jinak vypadá v textové konverzaci, jinak v kybernetickém zabezpečení a jinak v reálném světě kuchyně a kávovaru. Z právního hlediska je důležité si uvědomit, že žádný z těchto testů sám o sobě neodpovídá na otázku, zda má být dotyčný stroj považován za osobu v právním smyslu. Turingův test může inspirovat představy o „inteligentním“ jednání, CAPTCHA ovlivňuje technické zabezpečení právních jednání a kávový test odhaluje limity současné robotiky. O tom, komu přiznáme právní osobnost, však nakonec nerozhoduje výsledek experimentu, nýbrž normativní úvaha o tom, komu má právní řád přiznat status subjektu, a komu naopak ponechat roli nástroje, byť sofistikovaného.
Jsme připraveni na elektronickou osobu?
Na závěr tohoto článku stojí otázka, zda je současné právo připraveno na situaci, kdy by technologie byť jen přibližně naplnily kávový test a v některých ohledech překonaly schopnosti člověka. V evropském i angloamerickém prostředí se střetávají dva základní pohledy. Podle prvního postačí existující instituty – odpovědnost za škodu, produktová odpovědnost, přísná odpovědnost za provoz zvlášť nebezpečné činnosti či odpovědnost provozovatele dopravního prostředku – a není třeba vytvářet novou kategorii osoby.
Podle druhého se s rostoucí autonomií systémů, zejména těch, které se samy učí a mění svůj model či část svého kódu, začíná rozevírat mezera, v níž je stále obtížnější zpětně identifikovat konkrétního lidského aktéra, jemuž lze jednání systému připsat.
V českém právu je odpověď v tuto chvíli relativně jasná. Právo zná jako osoby pouze člověka a právnickou osobu. Právní osobnost je konstruována buď přirozeně (u fyzické osoby), nebo jako fikce vázaná na určitý organizovaný celek (u právnické osoby). Pravidla pro vznik, fungování a zánik právnických osob jsou z velké části kogentní; není tedy možné je smluvně „obejít“ tak, aby se členem orgánu nebo jediným společníkem stala AI. I kdyby byla faktická správa společnosti svěřena algoritmu, právní odpovědnost nese nadále člověk či právnická osoba, která se k tomu zavázala nebo která algoritmus ovládá.
V evropské debatě se proto pozornost posouvá od přiznání statusu elektronické osoby spíše k jemnějšímu nastavení režimů odpovědnosti. Zmiňuje se zejména povinné pojištění či kompenzační fond pro určité vysoce rizikové aplikace, zvláštní presumpce zavinění nebo odpovědnost nezávislá na zavinění u některých kategorií systémů, důraz na jasné vymezení rolí (poskytovatel a zavádějící subjekt) a požadavky na transparentnost a dokumentaci vývoje. Přijaté nařízení o umělé inteligence jde právě tímto směrem; elektronickou osobu nezavádí a ponechává vztahy k AI v rovině odpovědnosti fyzických a právnických osob.
Otázka ovšem není jen technicko-právní, ale také filosofická. V pozadí diskuse stojí mimo jiné Kantův kategorický imperativ, podle něhož máme jednat tak, abychom lidství, ať už ve své osobě nebo v osobě jiného, vždy zároveň chápali jako cíl a nikdy pouze jako prostředek. Přiznání právní osobnosti člověku není jen technickou zkratkou pro přičítání práv a povinností, ale i odrazem přesvědčení, že člověk je „účel o sobě“ a neredukovatelný nástroj. Umělá inteligence je naopak svou podstatou prostředkem, byť nesrovnatelně mocnějším než dosavadní nástroje.
Právě zde se ukazuje ambivalence konceptu elektronické osoby. Na jedné straně může být lákavý jako elegantní způsob, jak vyřešit některé hypotetické problémy plně autonomních systémů – přiřadit jim majetek, nechat je hradit škody z vlastního jmění, samostatně je žalovat. Na straně druhé hrozí, že se za „korporátní masku“ elektronické osoby skryje skutečná lidská odpovědnost, zatímco samotný status osoby se inflací nových kategorií vyprázdní. Hrozilo by, že označení „osoba“ přestane být nositelem výše uvedeného kantovského rozlišení a stane se pouhou účelovou nálepkou pro technická řešení.
Odpověď na otázku, zda je právo připravené na elektronickou osobu, je proto dnes dvojí. V pozitivně-právní rovině je odpovědí „ano“ v tom smyslu, že právo má dostatek nástrojů, jak pracovat s AI jako s věcí či se souborem služeb, jak upravit odpovědnost, pojištění a dohled, aniž by muselo vytvářet novou kategorii osob. V rovině hodnotové je však odpovědí spíše „ještě ne“: případné zavedení elektronické osoby by vyžadovalo nejen promyšlenou právně-technickou konstrukci, ale i společenskou shodu na tom, co pro nás pojem osoba znamená a komu jsme ochotni přiznat, že je více než prostředkem k našim cílům. Dokud tuto debatu neabsolvujeme, je bezpečnější mít dva typy osob – fyzické a právnické – a umělou inteligenci chápat jako mocný, ale pořád pouze lidský nástroj.
V příštím článku našeho seriálu AI a právo se zaměříme na samotné jádro současné regulace umělé inteligence. Po úvodních teoretických textech nás tentokrát čeká výrazně praktičtější, „právničtější“ materiál. Podrobně si představíme evropské nařízení o umělé inteligenci – jeho základní strukturu, principy regulace i dopady na různé typy poskytovatelů a uživatelů AI systémů. Prozatím necháme stranou související legislativu v oblasti odpovědnosti, kyberbezpečnosti a ochrany osobních údajů.