Brusel/Bratislava (OTS) - Európsky parlament v stredu (14. júna) 499 hlasmi za, 28 proti a 93 sa zdržalo hlasovania prijal svoju rokovaciu pozíciu k Aktu o umelej inteligencii pred rokovaniami s členskými štátmi EÚ o konečnej podobe zákona. Pravidlá by mali zabezpečiť, aby umelá inteligencia vyvinutá a používaná v Európe bola plne v súlade s právami a hodnotami EÚ vrátane ľudského dohľadu, bezpečnosti, súkromia, transparentnosti, nediskriminácie či dobrých sociálnych a environmentálnych podmienok.
Zakázané postupy v oblasti umelej inteligencie
Pravidlá sa riadia prístupom založeným na riziku a stanovujú povinnosti pre poskytovateľov a operátorov umelej inteligencie v závislosti od úrovne rizika, ktoré umelá inteligencia môže predstavovať. Systémy umelej inteligencie, v prípade ktorých je úroveň rizika pre bezpečnosť ľudí neprijateľná, napríklad také, ktoré sa využívajú na sociálne bodovanie (klasifikujú ľudí podľa ich spoločenského správania alebo osobných charakteristík) by preto mali byť zakázané.
Poslanci tento zoznam rozšírili o zákaz používania umelej inteligencie spôsobom, ktorý narúša súkromie a je diskriminačný, ako sú napríklad
· systémy diaľkovej biometrickej identifikácie „v reálnom čase“ a počas „následnej“ diaľkovej biometrickej identifikácie vo verejne prístupných priestoroch,
· systémy biometrickej kategorizácie, ktoré využívajú citlivé údaje (napr. pohlavie, rasa, etnický pôvod, občianstvo, náboženské vyznanie, politická orientácia),
· systémy prediktívneho vykonávania policajných funkcií (založené na profilovaní, lokalizácii polohy alebo predošlej trestnej činnosti),
· systémy rozpoznávania emócií v oblasti presadzovania práva, riadenia hraníc, na pracovisku a vo vzdelávacích inštitúciách a
· necielená extrakcia podôb tváre z internetu alebo zo záznamov z kamerového systému, ktoré slúžia na vytvorenie databáz na rozpoznávanie tvárí (ktoré môžu viesť k porušovaniu ľudských práv vrátane práva na súkromie).
Vysokoriziková umelá inteligencia
Europoslancom sa podarilo presadiť, aby klasifikácia vysokorizikových aplikácií odteraz zahŕňala aj systémy umelej inteligencie, ktoré významne poškodzujú ľudské zdravie, bezpečnosť, základné práva alebo životné prostredie. Do zoznamu vysokorizikových aplikácií boli tiež pridané systémy umelej inteligencie, ktoré sa využívajú na ovplyvňovanie voličov a výsledkov volieb či v odporúčacích systémoch používaných platformami sociálnych médií (s viac ako 45 miliónmi používateľov).
Povinnosti týkajúce sa systémov umelej inteligencie na všeobecné účely
Novým a rýchlo sa rozvíjajúcim trendom v oblasti umelej inteligencie sú poskytovatelia základných modelov, ktorí budú musieť posúdiť a zmierniť možné riziká (vo vzťahu k zdraviu, bezpečnosti, základným právam, životnému prostrediu, demokracii a právnemu štátu) a zaregistrovať svoje modely v databáze EÚ skôr, ako ich uvedú na trh EÚ. Generatívne systémy umelej inteligencie založené na modeloch, ako napríklad ChatGPT, budú podľa nových pravidiel musieť spĺňať požiadavky na transparentnosť (informovať o tom, že obsah bol vytvorený umelou inteligenciou a pomáhať tiež odlíšiť takzvané deepfake alebo falošné obrazy od skutočných) a poskytnúť záruky proti vytváraniu nezákonného obsahu. Zverejňovať sa budú musieť aj podrobné súhrny údajov chránených autorským právom, ktoré sa použili na trénovanie týchto systémov.
Podpora inovácií a ochrana práv občanov
S cieľom podporiť inovácie v oblasti umelej inteligencie a malé a stredné podniky poslanci doplnili výnimky pre výskumné činnosti a komponenty umelej inteligencie poskytované na základe licencií s otvoreným zdrojovým kódom. Nový právny predpis podporuje tzv. experimentálne regulačné prostredia alebo kontrolované reálne priestory, ktoré vytvorili verejné orgány na testovanie umelej inteligencie pred jej zavedením.
V neposlednom rade chcú poslanci posilniť právo občanov podávať sťažnosti na systémy umelej inteligencie, ako aj právo získať vysvetlenie rozhodnutí založených na vysokorizikových systémoch umelej inteligencie, ktoré majú významný vplyv na ich základné práva. Poslanci tiež prepracovali úlohu Úradu EÚ pre umelú inteligenciu, ktorý by mal po novom monitorovať uplatňovanie súboru pravidiel umelej inteligencie.
Vyhlásenia spravodajcov
Spoluspravodajca Brando Benifei (S&D, Taliansko) po hlasovaní uviedol: „Dnes sú všetky oči upreté na nás. Zatiaľ čo veľké technologické spoločnosti vyvolávajú znepokojenie nad svojimi vlastnými výtvormi, Európa pokročila a navrhla konkrétnu reakciu na riziká, ktoré umelá inteligencia začína predstavovať. Chceme, aby sa využil pozitívny potenciál umelej inteligencie v oblasti tvorivosti a produktivity, ale počas rokovaní s Radou budeme bojovať aj za ochranu našej pozície a boj proti nebezpečenstvu pre naše demokracie a slobody.“
Spoluspravodajca Dragoş Tudorache (Renew, Rumunsko) povedal: „Akt o umelej inteligencii nastaví celosvetový tón vo vývoji a riadení umelej inteligencie, čím sa zabezpečí, že táto technológia, ktorá prispeje k radikálnej transformácii našich spoločností prostredníctvom obrovských výhod, ktoré môže ponúknuť, sa vyvíja a používa v súlade s európskymi hodnotami demokracie, základných práv a zásad právneho štátu.“
Prijatím pozície k tejto legislatíve poslanci reagujú na očakávania občanov ohľadne zabezpečenia ľudského dohľadu nad procesmi súvisiacimi s umelou inteligenciou (návrh 35 ods. 3); ohľadne plného využitia potenciálu dôveryhodnej umelej inteligencie (35 ods. 8) a využívania umelej inteligencie a prekladateľských technológií na prekonanie jazykových bariér (37 ods. 3) v súlade so Správou o konečnom výsledku Konferencie o budúcnosti Európy.
Reakcie slovenských poslancov
Monika Beňová (S&D, SK) uviedla: „Nové pravidlá týkajúce sa umelej inteligencie musia byť zamerané na obmedzovanie rizík s ňou spojených a podporu jej využívania na etickom základe. Budú sa snažiť o stanovenie pravidiel a povinností pre poskytovateľov, ako aj používateľov, a to v závislosti od úrovne rizika, ktoré môže umelá inteligencia vytvárať. Užívateľské systémy by sa mali radiť do jednotlivých rizikových skupín, pričom tie s najvyššou mierou rizika budú označené ako neakceptovateľné a tým pádom vylúčené z prevádzky v Európskej únii. Panujú obavy, že súčasný rýchly rozvoj umelej inteligencie bude mať preukázateľne negatívny dopad na spoločnosť a jej fungovanie. Európske nariadenie sa tak môže stať jedným z prvých na svete, ktorým ju bude možné efektívne regulovať. Po prijatí pozície Európskeho parlamentu budú môcť nasledovať rokovania s Radou a Komisiou. Definitívne schválenie tak ešte nejaký čas potrvá a najskôr sa očakáva ku koncu tohto roka. Snahou bude nepochybne nájsť rozumný kompromis medzi ochranou pred možnými negatívnymi následkami používania umelej inteligencie a jej udržateľným rozvojom na európskom trhu.“
Vladimír Bilčík (EPP, SK) uviedol: „Umelá inteligencia môže byť dobrý sluha. Je preto dôležité, aby sme jej spoločenský prínos naplno využili a zároveň sa chránili pred jej možnými úskaliami a rizikami. Aj na Slovensku už dnes mnohí novinári, tvorcovia či podnikatelia v rôznych odvetviach využívajú služby ako Chat GPT a nevidím cestu v tom, aby sme takéto služby zakázali. V prístupe k umelej inteligencii preto potrebujeme jasné štandardy a pravidlá, ktoré sú založené na európskych etických normách a demokratických hodnotách.“
Lucia Ďuriš Nicholsonová (RE, SK) uviedla: „Pre fungovanie umelej inteligencie potrebujeme pravidlá. EÚ bude prvá, kto také pravidlá prijme a preto sa na nás teraz díva celý svet. Nová legislatíva musí zabezpečiť, aby boli systémy umelej inteligencie uvádzané na trh EÚ bezpečné a aby rešpektovali existujúce právne predpisy, základné práva a hodnoty Únie. Zároveň musíme pravidlá nastaviť tak, aby nezahatali cestu inováciám a investíciám do nových technológií. Technológia ide dopredu míľovými krokmi a legislatíva zaostáva. Dúfam, že kvalitná dohoda sa nájde čím skôr, lebo ak sa budeme naťahovať príliš dlho, legislatíva bude zastaraná už v momente, keď ju schválime.“
Robert Hajšel (S&D, SK) uviedol: „Vývoj umelej inteligencie bude tak či tak rýchlo napredovať, a preto je nevyhnutné, aby sme stanovili jasné pravidlá, ochránili súkromie a najmä zakázali škodlivé aktivity, kde sa umelá technológia využíva. Preto podporujem aj úplný zákaz systémov tzv. diaľkovej biometrickej identifikácie, ktoré bez súhlasu dotknutej osoby, len na základe zosnímania našej tváre z diaľky a bez nášho vedomia, vedia určiť našu identitu, či už sme na ulici, na letisku, v aute, kine, alebo divadle. Takéto zneužívanie umelej inteligencie je totiž zásah do súkromia spojený s obrovskými rizikami úniku informácií a ich zneužitia, a to nielen dospelých, ale aj maloletých a najzraniteľnejších.“
Martin Hojsík (RE, SK) uviedol: „Umelá inteligencia je ako oheň. Dobrý sluha, ale zlý pán. Aj preto potrebujeme jasné pravidlá pre jej fungovanie. Verím, že nikto z nás by nechcel byť obeťou možných nesprávnych krokov umelej inteligencie. Pretože áno, aj stroje sa môžu mýliť. Na rozdiel od ľudí však za to nemajú ako prebrať zodpovednosť, ale dopad na naše životy môže byť až príliš reálny.“
Eugen Jurzyca (ECR, SK) uviedol: „Umelá inteligencia dokáže zvyšovať výrazne produktivitu práce. Už dnes je možné využívať ju vo vzdelávaní, v zdravotníctve či v práve. V EÚ však investujeme do AI dramaticky menej než v USA alebo v Číne. Aj preto by sme si mali dať záležať na kvalite regulácie EÚ. UK to zobralo vážne a má reguláciu AI s desaťkrát nižšími nákladmi než v EÚ, navyše regulácia EÚ je menej pružná a zameraná viac na detaily. Regulácia UK sa venuje princípom, ako napríklad spravodlivosť a transparentnosť, regulácia EÚ ukladá napríklad firmám povinnosť starať sa o gramotnosť svojich zamestnancov v oblasti AI.“
Miriam Lexmann (EPP, SK) uviedla: „Som veľmi rada, že sa nám podarilo prijať parlamentnú pozíciu k tomuto historicky prvému legislatívnemu rámcu o umelej inteligencii, ktorému sa dlhodobo intenzívne venujem. Mojou prioritou pre toto nariadenie bolo dosiahnuť, aby algoritmy v rámci tzv. ekonomiky pozornosti, čiže tie, ktoré používajú sociálne siete na zobrazovanie konkrétneho obsahu, boli zaradené medzi vysokorizikovú AI. Toto sa napokon aj podarilo a odporúčacie algoritmy sociálnych sietí nájdeme v prílohe, ktorá vysokorizikovú AI vymenováva. Toto zaradenie považujem za obzvlášť dôležité v kontexte boja proti šíreniu dezinformácií, ale aj s ohľadom na ochranu psychického zdravia užívateľov sociálnych sietí, najmä deti a mladých ľudí. Odporúčacie algoritmy im totiž odporúčajú obsah, ktorý ich udrží čím dlhšie na danej sieti bez ohľadu na to, že napríklad posilňuje ich sebapoškodzovacie správanie či samovražedné myšlienky.“
Peter Pollák (EPP, SK) uviedol: „Umelá inteligencia nám môže v živote veľmi pomôcť, no obávam sa, že aj veľmi uškodiť. Preto musíme mať pre umelú inteligenciu jasné a bezpečné pravidlá, ktoré budú striktne pod kontrolou. Inak nám hrozí, že niekto umelú inteligenciu zneužije, resp. využije napríklad šírením klamstiev, hoaxov a dezinformácií v neprospech ľudstva.“
Ivan Štefanec (EPP, SK) uviedol: „Umelá inteligencia musí mať nad sebou ľudský dohľad a podliehať pravidlám, ktoré sú v súlade s európskymi hodnotami ochrany súkromia a nediskriminácie. Vzhľadom na to, že ide o historický míľnik prvých pravidiel pre umelú inteligenciu, tieto pravidlá majú potenciál ovplyvniť používanie umelej inteligencie na celom svete.“
Michal Wiezik (RE, SK) uviedol: „Umelá inteligencia je už bežnou súčasťou našich životov, či je to filtrovanie spamu, alebo vyhľadávanie najrýchlejšej cesty do cieľa. Okrem obrovských príležitostí a benefitov však prináša aj potenciálne riziká. Preto je potrebné hľadať účinné spôsoby, ako jej prípadnému zneužívaniu predchádzať. Legislatíva má zabezpečiť, aby bola používanie umelej inteligencie bezpečné a dôveryhodné a mohli sme naplno využívať tento obdivuhodný nástroj v prospech našej spoločnosti.“
|