Rychlost.cz Články Redakce Umělá inteligence a právo: Kdo je odpovědný za činy AI?

Umělá inteligence a právo: Kdo je odpovědný za činy AI?

Autor článku: Jakub Janíček | 22.10.2024

Umělá inteligence je tu a s ní i pořádná dávka právních oříšků. Co když autonomní auto nabourá nebo chatbot šíří fake news? Kdo je viník? Vývojář, uživatel, nebo snad samotný algoritmus? Právo se snaží adaptovat na svět AI, ale odpovědi nejsou jednoduché. Nová legislativa EU slibuje jasnější pravidla, ale etická dilemata a praktické výzvy přetrvávají.

Umělá inteligence a právo: Kdo je odpovědný za činy AI?

Umělou inteligenci využíváme nejen ve formě chatbotů, ale i ve zdravotnictví nebo při nakupování. Každopádně s nástupem AI vyplouvají na povrch také otázky ohledně práva. Mnozí se tak ptají na to, kdo je odpovědný za případy, kdy AI udělá chybu. 

Právní odpovědnost – kdo nese vinu?

Jedním z hlavních problémů, který právníci i veřejnost řeší, je otázka, jaké právní následky může mít jednání umělé inteligence. AI není živou bytostí, nemá vědomí ani právní osobnost, takže není možné k ní přistupovat jako k lidskému činiteli. 

Přesto se AI dokáže „rozhodovat“ a její rozhodnutí mohou mít značné důsledky – například nehoda způsobená autonomním vozidlem může někomu způsobit doživotní následky a špatné rozhodnutí při výběru zaměstnance může někomu obrátit život vzhůru nohama.

Obecně lze odpovědnost za AI rozdělit mezi několik klíčových hráčů: výrobce AI, uživatele AI, vývojáře AI, dodavatele dat a regulační orgány.

AI uživatelé

Jednotlivci, kteří AI používají, nesou počáteční vrstvu odpovědnosti. Mají za úkol porozumět funkcionalitě a omezením AI nástrojů, které používají, a zajistit jejich vhodné použití a dohled.

Nadřízení uživatelů AI

Manažeři mají povinnost zajistit, že jejich týmy jsou odpovídajícím způsobem vyškoleny k zodpovědnému používání AI. Jsou také odpovědní za monitorování používání AI v rámci svých týmů a ověřování, že použití odpovídá firemním zásadám a směrnicím.

Firmy využívající AI

Firmy využívající AI ve svých operacích musí vytvořit jasné pokyny pro její použití. Nesou odpovědnost za důsledky využití AI ve své organizaci. V souvislosti s tím musí mít vytvořené plány pro případy, že se AI dopustí chyby.

Vývojáři AI

Odpovědnost za AI se rozšiřuje i na jednotlivce a týmy, které AI vyvíjejí. Jejich odpovědnost zahrnuje zajištění, že AI je navržena a trénována zodpovědně a bez předsudků. Kromě toho musí zajistit, že AI disponuje opatřeními proti zneužití a chybám.

Dodavatelé AI produktů

Dodavatelé, kteří poskytují AI produkty nebo služby, musí zajistit, že poskytují spolehlivá, bezpečná a etická řešení. Právě proto mohou být odpovědnými, pokud je jejich produkt vadný. Problémům se mohou vyhnout tím, že uživatele předem informují o omezeních svého produktu –⁠⁠⁠⁠⁠⁠ například mohou uvést, že AI nemusí vždy poskytovat pravdivé informace.

Poskytovatelé dat

Jelikož systémy AI spoléhají na data pro trénink a provoz, poskytovatelé dat nesou odpovědnost za kvalitu a přesnost dat, která poskytují. Kromě toho musí zajistit, že data jsou získána eticky a respektují pravidla ochrany soukromí.
 

Největší restrikce připravila EU

Současná právní úprava v mnoha zemích není dostatečně připravena na dynamický vývoj AI. V Evropské unii však 1. srpna 2024 vstoupil v platnost zákon o umělé inteligenci s názvem AI Act, který stanovuje pravidla pro vývoj, nasazení a používání AI s důrazem na bezpečnost, transparentnost a prevenci diskriminace. 

Umělá inteligence se tak nově dělí podle rizika, která s sebou nese. Vysoce rizikové aplikace, jako jsou autonomní vozidla nebo systémy rozhodující o přístupu ke zdravotní péči, by měly podléhat přísným pravidlům a kontrolám. 

Cílem je zabránit tomu, aby AI způsobila újmu lidským právům nebo bezpečnosti, a pokud k tomu dojde, musí být možné jasně určit, kdo má být potrestán. 

EU nově rozlišuje čtyři kategorie:

  • Zakázané AI systémy –⁠⁠⁠⁠⁠⁠ patří sem například systémy hodnotící sociální skóre občanů či sledující jejich pohyb;
  • Vysokorizikové systémy –⁠⁠⁠⁠⁠⁠ najdeme zde AI systémy působící v lékařství;
  • Systémy se specifickým rizikem –⁠⁠⁠⁠⁠⁠ EU sem zahrnuje chatboty, kteří musí jasně informovat uživatele, že komunikují s AI;
  • Minimální riziko –⁠⁠⁠⁠⁠⁠ jedná se například o spamové filtry, které nepodléhají žádným specifickým požadavkům.

Ze zákona vyplývá, že vývojáři a výrobci jsou odpovědní za selhání nebo neočekávané výsledky AI, a to i pokud nebyly zamýšlené. Tento přístup však může být nevýhodný a vysoce rizikový pro malé a střední podniky, které nemusí být schopny nést odpovědnost za chyby způsobené AI.

Etická a právní dilemata

Otázka odpovědnosti za AI přináší také hluboká etická dilemata. Pokud autonomní vozidlo způsobí nehodu, kdo nese vinu? Výrobce vozidla? Vývojáři softwaru, kteří vytvořili algoritmy pro rozhodování? Majitel vozidla, který jej používá? 

Odpovědnost je často obtížné přisoudit jedné straně, protože AI rozhoduje na základě komplexních datových analýz, které nejsou vždy zcela předvídatelné.

Navíc AI může činit rozhodnutí, která jsou neetická nebo vedou k diskriminaci, a to i bez nekalého úmyslu. Například algoritmy mohou neúmyslně přenášet předsudky, které jsou skryty v datech použitých pro trénink. 

Pokud například AI navržená k automatizaci e-mailových odpovědí neúmyslně zveřejní citlivé informace, odpovědnost může ležet na uživateli, jeho manažerovi nebo společnosti, která takový systém povolila. Vývojáři a dodavatelé AI mohou být rovněž odpovědní za nedostatky v systému.

Dobrým příkladem jsou také AI systémy, které předpovídají tržní trendy. I menší chyba může vést k vysokým ztrátám. Vinu za ně ponesou nejen vývojáři a dodavatelé AI řešení, ale také poskytovatelé dat, kteří mohli do systému vložit nesprávná nebo zkreslená data.

Co nás čeká do budoucna?

Přestože právní rámec pro umělou inteligenci ještě není úplně vyřešen, existuje několik návrhů, jak odpovědnost za AI lépe ukotvit. Jedním z nich je zavedení povinného pojištění pro společnosti, které vyvíjejí nebo používají AI. 

Takový systém by fungoval podobně jako povinné ručení u automobilů – zajistil by náhradu škody způsobené AI, aniž by bylo nutné zdlouhavě určovat přesného viníka.

Další možností je rozšíření právní osobnosti na AI, což by znamenalo vytvoření jakéhosi právního „subjektu“ schopného nést odpovědnost za své jednání. Této variantě se však většina zákonodárců brání.

Jedním z přístupů je také vysvětlitelnost neboli proces, který umožňuje demonstrovat, jak algoritmus dospěl k určitému řešení. Pokud by bylo možné vysvětlit proces rozhodování AI, lze přesně určit, kdo nese odpovědnost. 

Bohužel otázka, kdo je odpovědný za činy umělé inteligence, je stále nejasná. Pravděpodobně nás jako u většiny nových technologií čeká řada soudních sporů, které teprve vnesou do celé problematiky trochu světla. Zatím je tedy většina kauz sporná a nelze přesně určit, kdo může za chyby a následné škody.

Hledáte rychlý a spolehlivý internet? Zadejte adresu a vyberte si.
Vyplňte adresu přípojky (ulice a č.p.):