Můžeme mít bezpečnou umělou inteligenci a současně podporovat inovace?

19. 7. 2023

7 min.

Můžeme mít bezpečnou umělou inteligenci a současně podporovat inovace?
autor
Rozena Crossman

Journalist and translator based in Paris, France.

Umělá inteligence (AI) není nic nového, přesto stále dokáže fascinovat celý svět. Zlatý věk umělé inteligence datujeme už od 70. let minulého století, ale i dnes toto téma často plní titulní stránky všech médií. V dubnu letošního roku se například v jednom japonském městě rozhodli svěřit část úřední administrativy chatbotovi ChatGPT, kterého ovládá umělá inteligence a který byl představen pouze o šest měsíců dříve. Ale v historii AI bychom naopak našli i systémy, které diskriminovaly určité skupiny uchazečů o zaměstnání nebo dohnaly své uživatele k sebevraždě. Umělou inteligenci však stále využívají lidé na celém světě napříč odvětvími k tomu, aby si usnadnili práci. Současně máme k dispozici rozsáhlý výzkum schopností této nové technologie způsobovat vážné škody. Proč tedy do této chvíle ještě v žádném státě na světě nebyla přijata legislativa pro regulaci umělé inteligence?

Pochopit, jak složité je skloubit využívání přínosů umělé inteligence pro lidstvo se snižováním jejích rizik, vám pomůže Ian Andrew Barber, londýnský právník se zaměřením na mezinárodní lidská práva. Ian Barber pracuje ve společnosti Global Partners Digital, nevládní organizaci zabývající se digitálním právem, a přináší zasvěcený pohled do právní problematiky umělé inteligence a plánovaných legislativních iniciativ i kontextu, v němž vznikají.

Jak souvisí práce lidskoprávního advokáta s umělou inteligencí?

Problémy spojené s umělou inteligencí zasahují do všech oblastí lidského života. Mluví o ní dneska každý, jak se zdá, a zároveň se všichni snaží pochopit, jak funguje a jak se bude do budoucna vyvíjet. Právníci jí věnují čím dál víc pozornosti hlavně z hlediska stávajících i navrhovaných opatření, což z naší strany vyžaduje koordinovanější a proaktivnější přístup.

Je evidentní, že umělá inteligence může lidstvu mnohé nabídnout. Dokáže optimalizovat vše od zemědělství až po projektování měst nebo třeba zlepšit přístup k informacím a vzdělání. Zároveň se však objevují rizika spojená s používáním těchto technologií, rizika, která ohrožují lidská práva i demokratické hodnoty. Sem patří právo na spravedlivý proces, právo na soukromí, předpisy na ochranu proti diskriminaci apod.

V posledních letech bylo ze strany technologických společností a mezinárodních organizací, jako je UNESCO nebo OECD, navrženo několik nezávazných opatření a doporučení týkajících se umělé inteligence. Kromě toho přicházejí s vlastními strategiemi pro regulaci AI jednotlivé státy, které nastiňují, jakým způsobem se budou řešit přínosy a rizika umělé inteligence. V USA například již existuje návrh zákona na ochranu práv pro používání AI. V tomto okamžiku se jedná o právně nezávazné iniciativy, které se dosud nepromítly do legislativního rámce. Současně však cca od minulého roku začaly regionální skupiny a mezivládní organizace usilovat o vytvoření právně závazných předpisů právě v souvislosti s umělou inteligencí.

Proč je pro zákonodárce zavádění regulace umělé inteligence tak těžké?

Z několika důvodů. Zaprvé, zákonodárci zpravidla disponují pouze základními technologickými znalostmi. Jedná se o komplikovanou věc a veřejní činitelé nebývají technicky nejzdatnější. Pro většinu lidí mimo technickou komunitu je zpočátku velmi obtížné porozumět složitým technologiím. Na nedávném jednání amerického Kongresu například došlo k tomu, že politici neměli základní znalosti o algoritmech nebo o tom, k čemu je sociální média využívají. Během nedávného slyšení u Nejvyššího soudu na téma odpovědnosti zprostředkovatelů vyšlo zřetelně najevo, že jednotlivé vládní složky nezvládají ani základy, stočí-li se diskuze na technologie, zejména co se týče těch složitějších či nejnovějších.

Pak je tu také propastný rozdíl mezi tím, co si pod umělou inteligencí představí „normální člověk“, a tím, na čem právě pracují zákonodárci a čemu se snaží porozumět. Na jedné straně dochází k určitému vývoji v Radě Evropy a v Evropské unii, kde se skutečně geniální lidé snaží přijít na to, jak vyřešit rizika umělé inteligence. A na druhé straně tu máte uživatele sociálních sítí, nebo dokonce známé influencery, kteří tvrdí, že AI má příliš velkou moc nebo že převezme vládu nad světem. Veřejní činitelé by měli reagovat na to, co chce lid, co potřebuje lid, ale vším proniká obecný nedostatek porozumění. Myslím, že to je zdaleka největší problém.

Vývoj těchto technologií se přitom nezastavil, pokračuje velmi rychlým tempem. Ještě před deseti lety měla AI problém odlišit fotografii kočky od člověka a nyní jsme svědky neustálého rozšiřování generativního jazykového systému (technologie modulu ChatGPT). Neustálý vývoj jen přispívá ke komplexní povaze umělé inteligence a všechny dotčené strany si to musí uvědomit, aby ji dokázaly účinně regulovat. Zatím to vypadá, že jsou zákonodárci neustále o krok pozadu.

A co mohou udělat pro to, aby srovnali krok?

Nová opatření musejí vycházet ze stávajících právních předpisů a navazovat na ně. Na mezinárodní i vnitrostátní úrovni již existují uznávaná práva a ochranná opatření, není důvod, proč od nich jednoduše upustit. Když po 2. světové válce začal vznikat mezinárodní systém na ochranu lidských práv, nikdo netušil, že bude zapotřebí řešit i otázky velkoplošného digitálního monitoringu. Ale dokážeme existující předpisy, například ty na ochranu soukromí, přizpůsobit novému kontextu. To občas vyžaduje dost práce a rafinovanosti, ale už se nám to v minulosti podařilo.

Nedávno jsme například viděli, jak relevantní mohou být pro umělou inteligenci již existující předpisy, když byl v Itálii zakázán ChatGPT. Jako důvod bylo uvedeno, že neexistuje právní základ, který by ospravedlňoval hromadné shromažďování a uchovávání osobních údajů pro účely zlepšování algoritmů ChatuGPT. [Itálie následně uvedený zákaz zrušila.] S umělou inteligencí je to ale malinko složitější. Podle předpisů na ochranu lidských práv máte například právo na účinné opravné prostředky, což znamená, že by měl mít každý právo se bránit proti porušení svých práv a žádat nápravu. Ale kolem rozhodování umělé inteligence se často vznáší opar nejistoty, její rozhodnutí totiž nejsou transparentní. Jak poznáte, podle čeho a proč se rozhodla tak či onak? Zapříčinil konkrétní rozhodnutí předpojatý vývojář, nebo strojové učení? Nevíte to, a proto možná nebudete moci napadnout fakt, že došlo k porušení vašich práv, nebo se domáhat nápravy. Jak to vyřešit? Nadále chceme mít jistotu, že právo na ochranné prostředky zůstane platné a dostupné všem. Proto se musí zákonodárci soustředit na požadavky na transparentnost, odpovědnost a nástroje dohledu.

Co nám můžete povědět o aktuálních právních iniciativách v oblasti umělé inteligence a o tom, na co se zaměřují?

Na vnitrostátní úrovni jsou tyto iniciativy opravdu ve fázi zárodků. Nemůžeme dosud hovořit o legislativě, která by se na AI zaměřila komplexním způsobem, ale v některých státech se o tom začíná uvažovat. Americký úřad pro telekomunikace a datovou administrativu (NTIA) při ministerstvu obchodu požádal o připomínky k zásadám a opatřením ohledně odpovědnosti AI systémů a ve Velké Británii probíhají veřejné konzultace na téma umělá inteligence a jak k ní nově přistupovat. V obou případech se jedná o skvělou příležitost pro aktivisty, odborníky i celé organizace, protože mohou poskytnout svůj pohled na věc a ovlivnit vznikající vládní opatření.

Kromě úsilí vyvíjeného na vnitrostátní úrovni tu máme také dvě velmi důležité evropské iniciativy. Tak zaprvé je to zákon EU o umělé inteligenci. Všech 27 členských států spolupracuje na vytvoření harmonizovaného právního rámce pro vývoj a používání umělé inteligence na vnitřním trhu EU. Měl by být založen na různých úrovních rizika, přičemž pro různá rizika zamýšleného použití AI systémů budou platit různá pravidla a povinnosti. Právě teď se operuje se čtyřmi rovinami rizika a nejnověji i s generativními AI systémy.

První kategorie se nazývá „nepřijatelná rizika“: aplikace v této kategorii mají být zcela jednoduše zakázány, protože jsou v rozporu s hodnotami EU a porušují základní lidská práva. Sem patří například systémy pro přidělování sociálního kreditu, používané například v Číně. Návrh zákona počítá také se zákazem AI systémů určených k manipulaci specifických zranitelných skupin (např. věkových skupin, osob s fyzickým či duševním postižením nebo ve zranitelné ekonomické či sociální situaci). Jedná se o velmi krátký seznam kategorií zákazu použití, má dosud jen čtyři body.

Další kategorií jsou tzv. vysoká rizika. Sem spadají systémy umělé inteligence, které mají negativní dopad na bezpečnost nebo základní práva. Tahle kategorie upravuje AI systémy používané při kontrolách na hranicích, policejními a soudními orgány, ve zdravotnických zařízeních, v náborových řízeních atd. Systémy s vysokým rizikem budou podléhat různým nařízením, souvisejícím s kvalitou dat, transparentností a dohledem. Dále tu máme „omezená rizika“. Pro AI v této kategorii budou platit základní požadavky na transparentnost, včetně povinnosti informování uživatelů o tom, že komunikují se systémem umělé inteligence.

Ve světle posledních událostí se evropští činitelé rozhodli zabývat i otázkou umělé inteligence určené k obecnému použití (ChatGPT) a do návrhu zákona zařadili novou kategorii. (Chtějí pro tyto systémy vyhradit samostatnou kategorii.) Problém je v tom, že tento typ AI může být používán k různým účelům s různou úrovní rizika. Můžete si přes ně zabookovat dovolenou, ale taky třeba masově šířit dezinformace. Je to podle mě skvělá ukázka toho, jak se musí EU za běhu přizpůsobovat technologickému vývoji, a přitom ještě zákon ani nestačil vstoupit v platnost.

A ta druhá evropská iniciativa?

Návrh na úmluvu o umělé inteligenci. Rada Evropy, přední lidskoprávní organizace na našem kontinentu sdružující 46 zemí, chce vydat závazný rámec obsahující povinnosti a pravidla pro navrhování, vývoj a používání systémů umělé inteligence. Měl by být založen na zásadách Rady Evropy platících v oblasti lidských práv, demokracie a právního státu. Jedná se v podstatě o tematickou úmluvu pro ochranu lidských práv.

Zatímco navrhovaný akt EU o umělé inteligenci by měl po svém přijetí přímo platit ve státech EU, úmluva Rady Evropy má potenciál se stát prvním celosvětově závazným rámcem pro umělou inteligenci. Dokument Rady Evropy by totiž mohly podepsat i země mimo Evropu, jako je Kanada, USA, Izrael nebo Japonsko a další, vznikly by proto mezinárodní normy pro řízení umělé inteligence. Když budeme mít nové, globálně uznávané systémy ochrany pro otázky AI, může to radikálně pomoci s ochranou lidských práv.

Mohou stát zmíněné iniciativy v cestě inovacím?

No, myslím, že smyslem toho všeho je právě snaha nestát inovacím v cestě. Proto obě právní iniciativy usilují o přístup založený na rizicích a přiměřené regulaci. Systémy umělé inteligence s omezeným rizikem nemusejí podléhat stejným opatřením jako nebezpečnější systémy. Je klíčové, aby právní předpisy reagovaly na konkrétní případy a byly cílené, aby nepředstavovaly zbytečnou zátěž. Vidíme zde přístup, který podporuje inovace a současně řeší možná rizika. Jedno nevylučuje druhé.

Myslím, že efektivní regulace jde neodmyslitelně ruku v ruce s inovacemi. Všichni přece chceme používat produkty a služby, o kterých víme, že jsou bezpečné. To je vidět i v případě regulování zařízení IoT (internetu věcí). IoT se neomezuje jen na chytré hodinky a domácí spotřebiče, uplatnění má i ve zdravotnictví a v průmyslové výrobě. Technologie tohoto typu podléhají větší a větší regulaci, ale nijak to nezpomaluje tempo jejich vývoje.

Všichni mluví o „závodech ve zbrojení“ v souvislosti s umělou inteligencí. Ale není lepší mít méně vyspělou, bezpečnější a spolehlivější technologii než vyspělejší, ale potenciálně nebezpečnou? Myslím, že se ve finále všichni shodneme na tom, že odpověď zní ano.

Vyřadí podle vás zákaz ChatuGPT Itálii z konkurence ostatních?

Ne, to si nemyslím. Podle mě se pravděpodobně stanou dvě věci. Zaprvé, poskytovatelé ChatuGPT se rozhodnou, že bude dodržovat příslušné zákony na ochranu osobních údajů. Soulad s předpisy zajistí, že se jejich produkt dostane k většímu počtu lidí, což v konečném důsledku pomůže firmě. Takže ten finanční aspekt je sám o sobě celkem značný. Zadruhé, ChatGPT je jen jednou rybkou v moři. Existují desítky alternativ, které mohou používat i lidé v Itálii a které pravděpodobně zaujmou místo ChatuGPT na italském trhu.

Jaké naprosto minimální požadavky musí zahrnovat regulace AI, aby došlo ke zmírnění rizik?

Jako úplný základ je potřeba nejdříve pochopit potenciální hrozby konkrétního systému a v konkrétním kontextu. Proto je nutné mít nějaké nástroje pro vyhodnocení AI systému, jeho možností použití a případných rizik. Dále potřebujete požadavky na transparentnost, odůvodnitelnost a odpovědnost a kromě toho také nezávislý a efektivní dohled. To znamená, že musíte rozumět tomu, odkud se berou data, musíte transparentně sdělit uživatelům, že jsou v kontaktu s AI, a současně musíte transparentně poskytovat informace o tom, jak se daná umělá inteligence rozhoduje.

Tím se vracíme k právu na opravné prostředky a význam dostupnosti vysvětlení. Ve finále jde o to, abychom byli schopni konkrétní rozhodnutí umělé inteligence zpochybnit a zjistit, jak k němu došlo a kdo za něj nese odpovědnost.

Překlad: LexiPro
Foto: Welcome to the Jungle
Sledujte Welcome to the Jungle na Facebooku, LinkedInu nebo Instagramu a nenechte si ujít žádné novinky.

Hledáte svou další pracovní příležitost?

Více než 200 000 kandidátů našlo práci s Welcome to the Jungle

Prozkoumat pracovní místa