Před třemi lety přinesla americká nezisková organizace ProPublica alarmující zprávu. Systém s prvky umělé inteligence Compas, který v té době využívaly stovky soudů po celých Spojených státech k posouzení pravděpodobnosti, s jakou budou obžalovaní páchat další trestnou činnost, diskriminuje Afroameričany. Ačkoliv výrobce systému − michiganská společnost Northpointe − podjatost Compasu popřel, případ rozpoutal diskusi o vhodnosti využití takových "poradních" systémů v justici a o tom, zda by i jejich použití neměly ošetřit etické standardy.
Nejen v reakci na tento případ se po celém světě v posledních letech rozběhly iniciativy, jejichž cílem je zabývat se otázkami etiky a práva při použití umělé inteligence a zajistit, aby roboti respektovali základní lidská práva. Na evropské úrovni představila text shrnující etické zásady pro využití umělé inteligence v soudních systémech loni v prosinci Evropská komise pro efektivitu justice při Radě Evropy, zkráceně nazývaná CEPEJ. Její charta mimo jiné apeluje, aby etika a principy jako respektování lidských práv a zásady nezávislosti soudů byly součástí vývoje veškerých systémů založených na využití umělé inteligence již od samého začátku jejich vývoje.
Charta zahrnuje pět základních principů. Patří k nim respekt k základním právům obsaženým zejména v Evropské úmluvě o ochraně lidských práv, princip nediskriminace, princip kvality a bezpečnosti, v rámci kterého komise mimo jiné žádá, aby všechny systémy nasazované v soudnictví stavěly na datech a softwaru pocházejících ze známých a certifikovaných zdrojů. Čtvrtým principem, který charta předepisuje, je pak zásada transparentnosti, nestrannosti a férovosti. Jeho součástí je i doporučení, aby v zájmu transparentnosti využívali programátoři při tvorbě justičních systémů otevřené zdrojové kódy. Jasným a i laikům srozumitelným jazykem musí také popsat, jakým způsobem jejich systém rozhoduje.
Poslední princip nese název "pod kontrolou uživatelů". "Podle této zásady musí být jasné, kdy byla umělá inteligence použita a uživatel s tím musí souhlasit," popisuje prezident komise Georg Stawa. Jde především o to, aby lidé, o jejichž životech bude umělá inteligence rozhodovat, o tom měli dostatek informací a mohli se sami rozhodnout, jestli "vsadí na robota", anebo budou raději žádat, aby jejich případ posoudil živý soudce. Tento princip využití umělé inteligence akcentuje právo nebýt předmětem automatického rozhodování, které lidem zaručuje i obecné nařízení o ochraně osobních údajů. Závěrem komise také doporučuje, aby každému zavedení umělé inteligence v justiční praxi předcházela odborná debata.
Chcete číst dál?
Ještě na vás čeká 70 % článku.
S předplatným získáte
- Web Ekonom.cz bez reklam
- Možnost sdílet prémiový obsah zdarma (5 článků měsíčně)
- Možnost ukládat si články na později
Odesláním objednávky beru na vědomí, že mé osobní údaje budou zpracovány dle Zásad ochrany osobních a dalších zpracovávaných údajů, a souhlasím se Všeobecnými obchodními podmínkami vydavatelství Economia, a.s.
Beru na vědomí, že budu dostávat obchodní sdělení, týkající se objednaných či obdobných produktů a služeb společnosti Economia, a.s. Odmítnout zasílání
Můžete si prohlédnout kompletní nabídku,
která obsahuje i tištěné vydání.
Pokud potřebujete poradit, napište nám, nebo zavolejte na +420 233 071 111
Pokud potřebujete poradit, napište nám,
nebo zavolejte na +420 233 071 111