Adimen artifizialak paradigma-aldaketa dakar, zalantzarik gabe. Erronka juridiko, sozial eta etikoak planteatzen ditu, eta erronka horiei heldu behar zaie horien erabilera arautuko duen araudia diseinatzerakoan, gure gizartearen ordena soziala, ekonomikoa eta etikoa bermatze aldera.

Legearen ikuspuntutik, gehien kezkatzen duten gaiak kalteen erantzukizuna, pribatutasuna, zibersegurtasuna, jabetza intelektuala edo etika bezalako gai garrantzitsuetan zentratzen dira. Izan ere, IAren funtsezko oinarrietako bat datu-bolumen handiak prozesatzea da, besteak beste, deep learning tekniken bidez eta giza garunaren konexio biologiko gisa funtzionatzen duten eta gure gaitasun kognitiboak imitatu ditzaketen neurona-sareen bidez.

Testuinguru horretan, Europako Batzordeak, teknologia horren aukerez jabetuta, baina baita bere arriskuez ere, hala nola erabakiak hartzerakoan dagoen opakutasunaz, genero-diskriminazioaz edo bestelako diskriminazioez, gure bizitza pribatuan sartzeaz edo delitu-helburuekin erabiltzeaz jabetuta, 2018. urtean IArako Europako Estrategia aurkeztu zuen. Estrategia horren helburua Europan teknologia fidagarria sustatzea da. Esparru horretan, Europako Parlamentuak 2024ko martxoaren 13an onartu zuen arlo horretako munduko lehen arau integralaren testua (IA Erregelamendua), eta zuzenean aplikatuko da estatu kideetan, Europar Batasunaren (EB) mugetatik harago.

Ez da hori arautzen duen arau bakarra, baina bai munduan modu integralean heltzen dion bakarra, haren erabilerek EBko oinarrizko eskubideentzat eta balioentzat dakartzaten arriskuetan arreta jarriz.

IA Erregelamenduak EBko oinarrizko eskubideen eta balioen aurka doazen IA soluzioak merkaturatzea eta erabiltzea arautzen du. Hala, adibidez, debekatu egiten du pertsona edo talde kaltebera espezifikoen portaera manipulatzea ahalbidetzen duten konponbideak merkatuan sartzea eta EBn erabiltzea; adibidez, haurrengan portaera arriskutsuak sustatzen dituzten ahotsez aktibatutako jostailuak. EBk zirkulazioan jartzeari eta puntuazio sozialeko sistemak erabiltzeari ere betoa jarri die, hala nola pertsonak portaeraren, estatus sozioekonomikoaren edo ezaugarri pertsonalen arabera sailkatzea, horiek gizarte distopiko desiragarriak sortuko bailituzkete.

Era berean, Txinan ez bezala, debekatuta dago identifikazio biometrikoko sistemak denbora errealean eta urrutitik erabiltzea, hala nola aurpegi-aintzatespena (salbuespen jakin batzuekin), pribatutasunean eta oinarrizko eskubideetan esku-sartzea eragingo bailukete. Erabilera horiek EBren oinarrizko eskubideak, balioak eta printzipio etikoak urratzen dituztela ulertzen da, eta horregatik debekatzen dira.

Bestalde, sistemen fabrikatzaile, banatzaile, inportatzaile eta hedapenaren arduradunei (erabiltzaileei) betebeharrak ezartzen zaizkie, eta horiek, Europako herritarrentzat arriskutsuak izan daitezkeen arren, baimendu egiten dira, baldin eta Europan martxan jartzeko eta erabiltzeko IA sistemaren hornidura-katean parte hartzen duen operadore bakoitzak arrisku horiek modu kontrolatuan arintzeko baldintzak eta neurriak betetzen baditu. Arrisku handiko kasuetan, nahitaezko ezarpenak handiak dira. Fabrikatzaileek edo hedapenaren arduradunek arriskuen ebaluazioa egin beharko dute, eta neurri aringarriak ezarri.

Arrisku handiko sistemaren adibide bat langileak hautatzeko prozesuetan erabiltzen direnak dira. Beste neurri batzuen artean, gizakiak gainbegiratzeko betebeharra ezartzen da (man in the loop). Neurri honen bidez, hautespen-algoritmoek giza alborapenak erreproduzitzea saihesten da, patroi historikoak ikasiz. Duela urte batzuk, enpresa handi batek AEBn IA tresna bat erabili zuen zeregin horretarako, eta, horren ondorioz, gizon zuriak bakarrik kontratatzen zituen, ikasi zuelako konpainia horren azken hamar urteetako erabakien ehuneko handiena gizon zurien kontratazioan amaitzen zela, emakumeak eta koloretako pertsonak diskriminatuz.

Piramidearen puntarik baxuenean IAko tresnak daude, eta horien erabilerak arrisku minimoa dakarkie pertsonei. Hori da chatbot-en edo ultrafalsifikazioen (deep fakes) kasua, eta, besteak beste, gutxieneko baldintza batzuk ezartzen dira gardentasunaren arloan.

Sistema horren bidez, EBk bere lidergo teknologikoa zaindu nahi du, eta, aldi berean, bermatu europarrek konfiantza izan dezaten EBren balioak, oinarrizko eskubideak eta printzipioak errespetatzen dituen IA batean.

Hala ere, IA Erregelamenduarekin batera, beste arau batzuk ere berrikusi beharko dira, IAk planteatuko dituen egoera berrietara egokitu beharko direnak. Adibidez, produktu akastunek eragindako kalteen erantzukizunari buruzko araudiarekin gertatzen da hori, eta Europar Batasuna hori berrikusteko lanean ari da.

Tresna horiek planteatzen dituzten beste erronka juridiko batzuk jabetza intelektualarekin lotutakoak dira. Alde batetik, emaitzak (outputak) lortzeko algoritmoak ikasteak eskubideen urraketa ekar dezakeelako, datu kopuru izugarria ateraz eta meatzaritzaz, baldin eta datu horiek ez badira erabili datu horien titularraren baimen egokiarekin edo haien erabilera ezin bada lege-salbuespenen batean babestu.

Bestalde, kontuan hartuta jabetza intelektualeko eskubideen sistema obra baten egiletza esleitzean oinarritzen dela pertsona fisiko batek sortua izateagatik, zaila egiten da autoretza hori makina edo algoritmo batek sortutako emaitzei egoztea. Eztabaida interesgarria da, eta Erresuma Batuan eta AEBn, besteak beste, izaten dira auziak.

Azken batean, IA Erregelamenduak Europar Batasunean IAren erabilerari buruzko mugak ezartzen ditu, oztopo gaindiezinak jartzen ditu erabilerak demokraziaren eta EBko balio-sistemaren aurkakoak direnean, eta, gainera, IA tresnen fabrikatzaileei eta erabiltzaileei kontrolak eskatzen dizkie, europarren osasunerako eta oinarrizko eskubideetarako arriskutsuak izan daitezkeenak.

Ez da huskeria, baina hau hasi besterik ez da egin. Gure arau-sistema modernizatzen joango gara, IAk planteatuko dizkigun errealitate, operatibo eta arrisku berrien arabera. Sistema horiek garatzen ari diren abiaduran, arriskua da IA Erregelamendua denbora laburrean zaharkituta geratzea.

Egilea Admin