Umělá inteligence je tu a s ní i pořádná dávka právních oříšků. Co když autonomní auto nabourá nebo chatbot šíří fake news? Kdo je viník? Vývojář, uživatel, nebo snad samotný algoritmus? Právo se snaží adaptovat na svět AI, ale odpovědi nejsou jednoduché. Nová legislativa EU slibuje jasnější pravidla, ale etická dilemata a praktické výzvy přetrvávají.
Umělou inteligenci využíváme nejen ve formě chatbotů, ale i ve zdravotnictví nebo při nakupování. Každopádně s nástupem AI vyplouvají na povrch také otázky ohledně práva. Mnozí se tak ptají na to, kdo je odpovědný za případy, kdy AI udělá chybu.
Jedním z hlavních problémů, který právníci i veřejnost řeší, je otázka, jaké právní následky může mít jednání umělé inteligence. AI není živou bytostí, nemá vědomí ani právní osobnost, takže není možné k ní přistupovat jako k lidskému činiteli.
Přesto se AI dokáže „rozhodovat“ a její rozhodnutí mohou mít značné důsledky – například nehoda způsobená autonomním vozidlem může někomu způsobit doživotní následky a špatné rozhodnutí při výběru zaměstnance může někomu obrátit život vzhůru nohama.
Obecně lze odpovědnost za AI rozdělit mezi několik klíčových hráčů: výrobce AI, uživatele AI, vývojáře AI, dodavatele dat a regulační orgány.
Jednotlivci, kteří AI používají, nesou počáteční vrstvu odpovědnosti. Mají za úkol porozumět funkcionalitě a omezením AI nástrojů, které používají, a zajistit jejich vhodné použití a dohled.
Manažeři mají povinnost zajistit, že jejich týmy jsou odpovídajícím způsobem vyškoleny k zodpovědnému používání AI. Jsou také odpovědní za monitorování používání AI v rámci svých týmů a ověřování, že použití odpovídá firemním zásadám a směrnicím.
Firmy využívající AI ve svých operacích musí vytvořit jasné pokyny pro její použití. Nesou odpovědnost za důsledky využití AI ve své organizaci. V souvislosti s tím musí mít vytvořené plány pro případy, že se AI dopustí chyby.
Odpovědnost za AI se rozšiřuje i na jednotlivce a týmy, které AI vyvíjejí. Jejich odpovědnost zahrnuje zajištění, že AI je navržena a trénována zodpovědně a bez předsudků. Kromě toho musí zajistit, že AI disponuje opatřeními proti zneužití a chybám.
Dodavatelé, kteří poskytují AI produkty nebo služby, musí zajistit, že poskytují spolehlivá, bezpečná a etická řešení. Právě proto mohou být odpovědnými, pokud je jejich produkt vadný. Problémům se mohou vyhnout tím, že uživatele předem informují o omezeních svého produktu – například mohou uvést, že AI nemusí vždy poskytovat pravdivé informace.
Současná právní úprava v mnoha zemích není dostatečně připravena na dynamický vývoj AI. V Evropské unii však 1. srpna 2024 vstoupil v platnost zákon o umělé inteligenci s názvem AI Act, který stanovuje pravidla pro vývoj, nasazení a používání AI s důrazem na bezpečnost, transparentnost a prevenci diskriminace.
Umělá inteligence se tak nově dělí podle rizika, která s sebou nese. Vysoce rizikové aplikace, jako jsou autonomní vozidla nebo systémy rozhodující o přístupu ke zdravotní péči, by měly podléhat přísným pravidlům a kontrolám.
Cílem je zabránit tomu, aby AI způsobila újmu lidským právům nebo bezpečnosti, a pokud k tomu dojde, musí být možné jasně určit, kdo má být potrestán.
EU nově rozlišuje čtyři kategorie:
Ze zákona vyplývá, že vývojáři a výrobci jsou odpovědní za selhání nebo neočekávané výsledky AI, a to i pokud nebyly zamýšlené. Tento přístup však může být nevýhodný a vysoce rizikový pro malé a střední podniky, které nemusí být schopny nést odpovědnost za chyby způsobené AI.
Otázka odpovědnosti za AI přináší také hluboká etická dilemata. Pokud autonomní vozidlo způsobí nehodu, kdo nese vinu? Výrobce vozidla? Vývojáři softwaru, kteří vytvořili algoritmy pro rozhodování? Majitel vozidla, který jej používá?
Odpovědnost je často obtížné přisoudit jedné straně, protože AI rozhoduje na základě komplexních datových analýz, které nejsou vždy zcela předvídatelné.
Navíc AI může činit rozhodnutí, která jsou neetická nebo vedou k diskriminaci, a to i bez nekalého úmyslu. Například algoritmy mohou neúmyslně přenášet předsudky, které jsou skryty v datech použitých pro trénink.
Pokud například AI navržená k automatizaci e-mailových odpovědí neúmyslně zveřejní citlivé informace, odpovědnost může ležet na uživateli, jeho manažerovi nebo společnosti, která takový systém povolila. Vývojáři a dodavatelé AI mohou být rovněž odpovědní za nedostatky v systému.
Dobrým příkladem jsou také AI systémy, které předpovídají tržní trendy. I menší chyba může vést k vysokým ztrátám. Vinu za ně ponesou nejen vývojáři a dodavatelé AI řešení, ale také poskytovatelé dat, kteří mohli do systému vložit nesprávná nebo zkreslená data.
Přestože právní rámec pro umělou inteligenci ještě není úplně vyřešen, existuje několik návrhů, jak odpovědnost za AI lépe ukotvit. Jedním z nich je zavedení povinného pojištění pro společnosti, které vyvíjejí nebo používají AI.
Takový systém by fungoval podobně jako povinné ručení u automobilů – zajistil by náhradu škody způsobené AI, aniž by bylo nutné zdlouhavě určovat přesného viníka.
Další možností je rozšíření právní osobnosti na AI, což by znamenalo vytvoření jakéhosi právního „subjektu“ schopného nést odpovědnost za své jednání. Této variantě se však většina zákonodárců brání.
Jedním z přístupů je také vysvětlitelnost neboli proces, který umožňuje demonstrovat, jak algoritmus dospěl k určitému řešení. Pokud by bylo možné vysvětlit proces rozhodování AI, lze přesně určit, kdo nese odpovědnost.
Bohužel otázka, kdo je odpovědný za činy umělé inteligence, je stále nejasná. Pravděpodobně nás jako u většiny nových technologií čeká řada soudních sporů, které teprve vnesou do celé problematiky trochu světla. Zatím je tedy většina kauz sporná a nelze přesně určit, kdo může za chyby a následné škody.