Evropská komise navrhla regulaci umělé inteligence

  • od
umělá inteligence pravidla EK

Evropská komise dnes navrhla vůbec první pravidla využívání umělé inteligence, s jejichž pomocí by chtěla omezit škodlivé dopady například sledovacích či manipulativních technologií. Zásadně regulovat chce zejména možnosti rozpoznávání obličejů, které vzbuzují obavu u ochránců soukromí. Za porušování pravidel, jimiž by exekutiva Evropské unie chtěla zavést mezinárodní standardy v této dosud neregulované oblasti, mají hrozit vysoké pokuty.

Technologické firmy, které vidí v umělé inteligenci motor budoucího růstu, se k omezování stavějí spíše skepticky. I proto se očekává, že potřebné schválení pravidel členskými státy unie a Evropským parlamentem potrvá až několik let.

“Pokud jde o umělou inteligenci, je důvěra nutností, nikoli jen výhodou. Přijetím těchto přelomových pravidel udává EU směr vývoje nových celosvětových norem, které zajistí umělé inteligenci důvěryhodnost,” prohlásila dnes místopředsedkyně EK pro hospodářskou soutěž Margrethe Vestagerová. Podle komise by regulace na druhé straně neměla zásadně omezit používání technologií, které posouvají kupředu zdravotní péči, bezpečnost v dopravě či prevenci kriminality.

Navrhované nařízení zavádí několik kategorií systémů umělé inteligence podle jejich rizikovosti. Jako nepřijatelné označuje ty, které ohrožují životy, bezpečí či práva lidí. Zakázány proto mají být v EU například systémy umožňující vládám takzvané sociální hodnocení, které běžně používá ke sledování svých občanů například Peking. Zákaz se má týkat třeba i hraček s hlasovými asistenty, které navádí děti a mladé lidi k nebezpečnému chování.

Další skupinou jsou technologie s vysokým rizikem, které budou povoleny jen při splnění přísných požadavků. Mezi ně patří třeba software třídící uchazeče o práci či o bankovní půjčku, hodnotící zkoušky ve škole nebo ověřující spolehlivost důkazů u soudu. Řadí se sem také všechny systémy biometrické identifikace včetně rozpoznávání obličejů. Jejich obecné využívání bude zcela zakázáno a sáhnout k němu budou moci úřady jen ve výjimečných případech, například při pátrání po dětech či odhalování teroristických útoků.

Firmám porušujícím pravidla mají hrozit pokuty až do výše šesti procent jejich obratu či do 30 milionů eur (780 milionů korun), pokud bude tato částka vyšší.

“Přistupujeme k umělé inteligenci úměrně, pečlivě zvažujeme rizika, dáváme kompetence veřejným institucím a požadujeme naprostou transparentnost,” prohlásila místopředsedkyně komise Věra Jourová. Navrhovaná pravidla by podle ní na jedné straně měla zajistit bezpečí a soukromí lidí, na druhé však příliš neomezovat činnost vznikajících progresivních firem.

Někteří experti přitom varují, že v případě schválení mohou nová omezení znamenat pro evropské firmy konkurenční nevýhodu proti společnostem z jiných částí světa. Očekávají proto, že během vyjednávání v EP a mezi členskými státy budou značně lobbovat za zmírnění některých podrobností.

Tlak však patrně přijde i na přísnější formulaci částí návrhu, které jsou zvláště podle některých europoslanců nedůsledné. “Musí zde být třetí strana, která nezávisle posoudí, zda systémy s vysokým rizikem odpovídají předpisům,” prohlásil například pirátský místopředseda EP Marcel Kolaja, podle něhož například nechává návrh prostor k diskriminaci uchazečů o práci při jejich posuzování umělou inteligencí. Stejně jako někteří další kolegové hodlá co nejdříve začít pracovat na jeho úpravách.

Zdroj: ČTK

@RadekVyskovsky