Při hledání nové práce, žádostech o úvěr v bance nebo například při rozpoznávání obličejů pro účely policejního dohledu se může projevit algoritmická předpojatost. Umělá inteligence (AI) se postupně využívá ve stále více oborech, je ale závislá na vstupních datech a představuje i rizika porušování lidských práv. Na hodnocení těchto rizik a vytvoření systémů prevence pracují výzkumníci z Českého vysokého učení technického (ČVUT), Masarykovy univerzity (MUNI) a soukromé školy Ambis. ČVUT o projektu informovala v tiskové zprávě.
Výzkumníci chtějí identifikovat příčiny rizika porušení lidských práv ve všech fázích životního cyklu AI. Výstupem projektu bude kromě vyhodnocení sada doporučení, jak AI technologie vyvíjet, používat a regulovat tak, aby neohrožovaly lidská práva a naopak pomohly jejich rozvoji a ochraně. Zároveň zkoumají i možnosti dalšího nasazení AI tam, kde by automatizace mohla pomoci lidská práva chránit.
„AI může významně pomoci například v monitorování dodržování a v prosazování lidských práv v oblasti korporátní odpovědnosti, posílení práva na spravedlivý proces odstraněním průtahů v řízení, ochrany zdraví a řadě dalších,“ řekla koordinátorka projektu Martina Šmuclerová z Ambis. „Například nereprezentativní vstupní data a jejich nevyvážené zpracování může do AI technologie vnést tzv. algoritmickou předpojatost neboli diskriminační bias. To se může projevit napříkad ve výběrovém řízení do zaměstnání, policejním dohledu založeném na mechanismu rozpoznávání obličejů nebo při hodnocení úvěruschopnosti jednotlivců v bankovnictví,“ upozornila.
Problémem může být podle výzkumníků také nevysvětlitelnost a netransparentnost modelů umělé inteligence. Pokud člověk, který poukazuje na porušení lidského práva nemá přístup k informacím a důkazům, na jejichž základě o něm AI rozhodla, může podle nich být ohroženo právo na spravedlivý proces.
Vědci identifikovali celkem 38 potenciálních rizik pro lidská práva ve všech fázích vývoje a provozování AI systému a pro každé nabízejí možnosti jejich prevence a eliminace. Zároveň pro 16 vybraných hlavních oblastí porušování lidských práv ve společnosti navrhli nasazení různých typů AI technologií s adekvátní funkcí.
„Soubory doporučení napomůžou praktické implementaci právně závazných norem, čímž je náš projekt komplementární i k probíhající iniciativě EU. AI Akt jakožto obecný předpis neřeší konkrétní technické provedení toho, jak má být rizikům pro lidská práva v konkrétním nasazení AI technologie předcházeno. Klíčovou roli budou hrát nástroje soft law, jako jsou kodexy chování, různé formy certifikací a podobně,“ řekl Jakub Míšek z Ústavu práva a technologií MUNI.
Právní regulace systémů na bázi umělé inteligence se nyní připravuje na úrovni Evropské unie v podobě Aktu o umělé inteligenci, dodává tisková zpráva.
TZ
Jedna odpověď