ES izstrādā pasaulē pirmo mākslīgā intelekta regulējumu

Skaidrojumi 30. Maijs, 2023
Robots strādā pie portatīvā datora

Mākslīgā intelekta (MI) tehnoloģijas kļūst par raksturīgu mūsu ikdienas sastāvdaļu. Pašbraucošas automašīnas, mājas asistenti, robo-padomnieki finanšu pakalpojumu jomā pēc dažiem gadiem var kļūt par normu. Jau tagad patērētāji dzīvo daudzu ar internetu savienotu ierīču vidū. Inteliģentas, pašmācīties spējīgas mašīnas un programmatūra izmantos milzīgo datu apjomu, ko radīs šīs ierīces, lai pieņemtu lēmumus un veiktu darbības bez cilvēka uzraudzības. Tas būtiski ietekmēs to, kā patērētāji izdarīs izvēli, kā viņi saskarsies ar uzņēmējiem un kas būs atbildīgs par problēmu rašanos.

Nav šaubu, ka MI var sniegt patērētājiem papildu ērtības. Tomēr, MI izmantošana rada arī daudzus izaicinājumus cilvēku drošībai un autonomijai, kā arī viņu tiesību aizsardzībai. Šajā kontekstā ES izstrādā pasaulē pirmo MI regulējumu.

Kas ir Mākslīgā intelekta akts?

Pirmais ES mēģinājums regulēt MI ir t.s. Mākslīgā intelekta akts (Artificial intelligence act jeb AI act). MI akts ir topošā ES regula, kuras priekšlikumu Eiropas komisija publicēja 2021.gada aprīlī.

Atbilstoši Eiropas komisijas norādītajam MI akta mērķi ir:

  • nodrošināt, ka ES tirgū laistās un izmantotās AI sistēmas ir drošas un atbilst pašreizējiem tiesību aktiem par pamattiesībām un ES vērtībām,
  • nodrošināt juridisko noteiktību, lai veicinātu ieguldījumus AI un ar to saistītu inovāciju,
  • uzlabot pārvaldi un to tiesību aktu efektīvu izpildi, kuri jau pašlaik piemērojami AI sistēmām,
  • veicināt vienota tirgus attīstību likumīgiem, drošiem un uzticamiem AI lietojumiem un novērst tirgus sadrumstalotību.

Ņemot vērā to, ka MI izmantošana skar visas mūsu dzīves jomas, ne tikai patērētāju aizsardzību, tad arī MI akts nav tikai patērētāju aizsardzības instruments. Piemēram, tas aptver arī tādas jomas, kā privātās dzīves neaizskaramība, personas datu aizsardzība, diskriminācijas apkarošana, vārda brīvība, tiesības uz efektīvu tiesību aizsardzību un taisnīgu tiesu, kā arī vides, veselības, darbinieku, bērnu un invalīdu aizsardzība u.c.

Uz risku balstīta pieeja

Atkarībā no MI lietojumu veidiem un ar tām saistītiem riskiem MI akts izšķir:

  1. nepieņemama riska lietojumus,
  2. augsta riska lietojumus,
  3. zema riska lietojumus,
  4. minimāla riska lietojumus.

Nepieņemamas MI sistēmas ir tās, kuru izmantošana ir pretrunā ES vērtībām, piemēram, pārkāpj pamattiesības. Šādas MI sistēmas tiks aizliegtas (sk. zemāk par aizliegtu MI praksi).

Augstā riska MI sistēmas ir tādas, kuras rada augstu risku fizisku personu veselībai un drošībai vai pamattiesībām. Šādu sistēmu izmantošana tiks atļauta ES tikai tad, ja ir nodrošināta atbilstība noteiktām obligātām prasībām un veikta atbilstības priekšnovērtēšana. Piemēram, augstā riska AI sistēmām tiks izvirzītas prasības attiecībā uz riska pārvaldības sistēmas ieviešanu, datu izmantošanu, tehniskās dokumentācijas sagatavošanu un atjaunināšanu, automātisko notikumu reģistrēšanu, pārredzamību un informācijas sniegšanu lietotājiem, cilvēka virsvadību t.i. cilvēka iespējai efektīvi pārraudzīt MI sistēmu, datordrošībai u.c.

MI akts apraksta augstā riska MI sistēmu klasifikācijas noteikumus un satur neizsmeļošu šādu sistēmu uzskaitījumu. Piemēram, par austa riska AI sistēmām uzskata tās, ko paredzēts izmantot fizisku personu tālidentifikācijai, kredītņēmēju maksātspējas novērtēšanai, personu pieņemšanai darbā, uzņemšanai izlglītības iestādēs, sociālo pabalstu piešķiršanai u.c. Diskusijas par to, kādas AI sistēmas uzskatāmas par augsta riska sistēmām turpinās.

Eiropas Komisijas paredzēts piešķirt pilnvaras papildināt augsta riska AI sistēmu sarakstu, piemērojot kritēriju kopumu un riska novērtēšanas metodiku.

MI akts arī nosaka pienākumus augsta riska AI sistēmu darbībā iesaistītājam pusēm - importētājiem, izplatītājiem, pilnvarotajiem pārstāvjiem, lietotājiem, kā arī izveido atbilstības novērtēšana sistēmu.

Zema riska AI sistēmas ir tās, kuram noteikts ierobežots prasību loks, piemēram, pārredzamības prasības (sk. zemāk).

Minimālā riska AI sistēmas - pārējas AI sistēmas, kurām MI akts prasības neuzliks, bet kurām ir jāievēro esošie ES tiesību akti.

Šai ziņa jāatceras, ka uz MI sistēmām attiecas arī esošie tiesību akti patērētāju aizsardzības, datu aizsardzības, digitālo pakalpojumu pakalpojumu un citās jomās. Piemēram, negodīgā komercprakse ir aizliegta neatkarīgi no tā vai tiek izmantotas MI sistēmas.

Aizliegtā mākslīgā intelekta prakse

Dažu veidu īpaši kaitīga AI prakse tiks uzskatīta par nepieņemamu un būs aizliegta. Piemēram, aizliegumi ietvers praksi:

  • kurai var būt ievērojams potenciāls manipulēt ar personām, izmantojot subliminālus paņēmienus (paņēmienus, kuri iedarbojas uz zemapziņu), kas var nodarīt fizisku vai psiholoģisku kaitējumu viņiem vai kādai citai personai;
  • izmantojot kādu neaizsargātu grupu, piemēram, bērnu vai invalīdu, ietekmējamību ar mērķi būtiski iespaidot viņu uzvedību veidā, kas var nodarīt fizisku vai psiholoģisku kaitējumu viņiem vai kādai citai personai;
  • sociālu novērtēšanu (social scoring), ko vispārējiem mērķiem veic publiskā sektora iestādes t.i. cilvēku uzticamības izvērtēšana vai klasificēšana noteiktā laikposmā, pamatojoties uz viņu uzvedību vai zināmām vai prognozētām personas īpašībām;
  • reāllaika biometriskās (piem. sejas, balss, pirkstu nospiedumu) tālidentifikācijas sistēmu izmantošana sabiedriskās vietās tiesībaizsardzības nolūkos, izņemot dažus gadījumus, kuros tā ir stingri nepieciešama (mērķtiecīga konkrētu pazudušo bērnu meklēšana, teroristu uzbrukuma nepieļaušana u.c.). Šādu sistēmu izmantošanai izņēmuma gadījumos paredzēta obligāta iepriekšējā atļauja.

Diskusijas par aizliegtām AI sistēmas joprojām turpinās. Piemēram, Eiropas Parlaments vēlas aizliegt biometrisko identifikācijas sistēmu izmantošanu ES gan reāllaika, gan ex-post lietošanai (izņemot smagu noziegumu gadījumus un iepriekšēju tiesas atļauju ex-post lietošanai), nevis tikai reāllaika lietošanai, kā ierosinājusi Komisija (sk. augstāk). Turklāt, parlaments vēlas aizliegt visas biometriskās kategorizācijas sistēmas, kurās izmanto sensitīvas pazīmes (dzimums, rase, tautība, reliģija, politiskie uzskati, pilsonība), prognozējošās policijas sistēmas (balstītas uz profilēšanu, atrašanās vietu vai iepriekšējo noziedzīgo uzvedību), emociju atpazīšanas sistēmas un mākslīgā intelekta sistēmas, kurās sejas atpazīšanas datubāzu izveidei izmanto biometrisko datu neselektīvu iegūšanu no sociālajiem medijiem vai videonovērošanas kameru ierakstiem.

Savukārt, ES padome piedāvāja sociālās novērtēšanas aizliegumu attiecināt arī uz privātpersonu sistēmām.

Pārredzamības prasības

Noteiktām MI sistēmām pastāv īpašs manipulācijas risks. Tādēļ īpaši pārredzamības pienākumi attieksies uz sistēmām, kuras:

  • ir saskarsmē ar cilvēkiem - fiziskās personas būs jāinformē par to, ka tās ir saskarsmē ar MI sistēmu;
  • uztver emocijas vai kategorizē cilvēkus, pamatojoties uz biometriskiem datiem - fiziskās personas jāinformē par sistēmas darbību, kurai tās pakļautas;
  • rada vai manipulē ar attēlu, audio vai video saturu, kas ievērojami atgādina reālas personas, objektus, vietas vai citas vienības vai notikumus un cilvēkam maldinoši šķistu autentisks vai patiess (“dziļviltojums”) - par tām jāatklāj, ka saturs ir mākslīgi radīts vai manipulēts.

Minētas informācijas saņemšana ļauj pakalpojuma saņēmējam izdarīt apzinātu izvēli par pakalpojuma izmantošanu vai atteikšanos no tā.

MI akts top, bažas aug

Paredzams, ka MI aktā noteikumi tiks izpildīti, balstoties uz jau pastāvošajām struktūrām dalībvalstīs, un sadarbības mehānismu Savienības līmenī, izveidojot Eiropas Mākslīgā intelekta padomi.

Lai arī MI akta izstrādāšana tuvojas noslēgumam, paredzams, ka tas stāsies spēkā tikai pēc 3 - 4 gadiem. Tas nozīmē, ka līdz tam īpašs regulējums MI sistēmām nepastāvēs, bet šo tehnoloģiju attīstībā arvien paātrinās un tas rada būtiskus riskus patērētājiem.

Šai sakarā arvien biežāk izskan aicinājumi atbildīgajām institūcijām rīkoties jau tagad. Piemēram, Eiropas Patērētāju organizācija (BEUC) publicēja aicinājumu Eiropas Komisijai iespējami ātrāk uzsākt diskusiju un izmeklēšanu par t.s. Lielo valodas modeļu (Large Language Model) sistēmu komerciālu izmantošanu, atsaucoties bažām par vairāku patērētāju tiesību aizsardzības noteikumu neievērošanu no OpenAI (ChatGPT īpašnieks) puses. Nesen brīdinājumu par AI riskiem publicēja arī vadošo MI petnieku un izstrādātāju grupa (t.sk. OpenAI un Google vadītāji), norādot, ka mākslīgā intelekta izraisīta riska mazināšanai vajadzētu būt globālai prioritātei līdzās tādiem riskiem, kā pandēmijas un kodolkarš.

Eiropas Komisija priekšlikums direktīvai preču remontēšanas veicināšanai Vai patērētāju tiesības attiecināmas arī uz mobilajām aplikācijām?
Visas aktualitātes

Saistītie raksti