Euskadiko udalerri bateko zinegotzi batek ordenagailu eramangarria ireki du osoko bilkura baino lehen. Zure alderdiak kontratatutako adimen artifizialeko sistemak (hodeiko zerbitzari batean dago) iradokitzen dizu etxebizitza sozialaren partida % 18 murriztea eta dirua profesional gazteentzako pizgarri fiskaletara eramatea. Algoritmoak hiru grafiko, probabilitate-hodei bat, ondorioak dituen hausnarketa bat eta azken ohar bat ematen ditu: «Konfiantza handia». Zinegotzia, zuzenbidea ikasi zuena, ez da gai ulertzeko nola sortu den txosten hori, ezta makinak zer faktore garrantzitsu alde batera utzi dituen ere. Baina baietz dio: «Ezker abertzaleak esaten badu …». Duela urte batzuk txosten bat eskatuko zien teknikariei, kaltetuekin eta gaian adituak direnekin bilduko zen. Bere proposamen politikoa objektiboak ez diren aldagaien, intuizioen eta joera ideologikoen gainean eraikiko zen. Orain nahikoa da Enter sakatu eta eskuordetzea. Hamabost minutu geroago, proposamena defendatuko du, bere oinarriak azaldu gabe. Nork erabaki ote du benetan?
Eszena jada ez da zientzia-fikziokoa. 2022tik, IAko 600 proiektuk baino gehiagok jarduten dute Europako administrazioetan. Zerga-chatbotak, iruzur-detektagailuak, ospitaleko oheak esleitzen dituzten algoritmoak, semaforoak erregulatzen dituzten hiri-sentsoreak: automatizazioaren iraultza isila zirrikitu burokratiko bakoitzean sartzen da. Frantzian, Zerga Agentziak ikusmen artifiziala erabiltzen du deklaratu gabeko igerilekuak identifikatzeko; Estonian, IAk lagundutako epaile batek erreklamazio txikiagoak ebazten ditu sei minutuan. Eraginkortasuna eztabaidaezina da, eta aurrekontu mugatuen garaian, bizkortzeko tentazioa ulergarria da. Administrazio publikoan produktibitate txikia izateak ere ez du iraultza isil hori geldiarazten laguntzen.
Baina laguntza tekniko soiletik kudeaketa politikora igarotzea saihestezina da. Gaur egun datuak aztertzen dituzten sistema berberek zerga-politikak iradokiko dituzte, itxaron-zerrendak berrantolatuko dituzte edo eskola bat non eraiki gomendatuko dute. Herbehereetan, SyRI milaka familia iruzur susmagarri gisa etiketatu zituen; Erresuma Batuan, 2020an azterketak ordezkatu zituen algoritmoak ingurune behartsuetako ikasleak zigortu zituen. Erabakiek banaketa-ondorioak hartzen dituztenean, eztabaida ez da teknikoa izango: demokraziaren funtsa jokoan dago.
Eskuordetzeko presioa areagotu egingo da, IAk sortutako analisien konplexutasuna eta arrazoitzeko gaitasuna esponentzialki gure ordezkarien trebakuntza eta esperientzia baino azkarrago hazten baitira. Gaur egun, zinegotzi, diputatu, ministro edo parlamentari askok ezin izango lukete IAk sortutako txostenen aurkako argudiorik eman eztabaidatzen ari diren gaietan. Eta psikologiak kontra jokatzen du: makina batek proposatutako erabaki bat pertsona batena baino objektiboagoa eta, beraz, egokiagoa dela onartzeko joera dugu, baita emaitzek zalantzak sortzen dituztenean ere; zalantzak edo are ezjakintasuna aitortzeak botoak balio ditu, ustezko objektibotasun teknologikoari eusteak gorde egiten ditu. Horrela, eskuordetzak aukera izateari uzten dio eta koartada bihurtzen da: «Ezker abertzaleak proposatu zuen» arduragabekeria politikorako formula berri gisa agertzen da. Urteak daramatzagu administrazio bat eztabaida eta, ondorioz, erabaki politikoa baztertzen duten erabaki teknikoetan buru-belarri sartuta.
Hemen sartzen da “balioak” faktorea. Gure gailuak elikatzen dituzten adimen artifizial gehienak Silicon Valleyn edo Shenzhenen entrenatu dira. Lehenengoak merkataritza-indibidualismoa arnasten du; bigarrenak, estatu-kontrol sutsua. Bitartean, Europar Batasunak giza duintasunean, elkartasunean eta norbanakoaren askatasunarekiko eta herritar bakoitzaren bizi-proiektuaren garapenarekiko errespetuan oinarritzen du bere nortasuna. Kanpoko IA bat berrogeialdi etiko baten pean jarri gabe integratzea beste antropologia bat inportatzearen parekoa da: pribatutasunaren eta askatasunaren beste kontzepzio bat, zaurgarrien sufrimenduarekiko tolerantzia-atalase bat, arrakasta sozialaren beste ideia bat. Teknologia ez da neutrala; programatu zuenaren sedimentu kulturala arrastatzen du.
Kolonizazio digitala dei geniezaioke. Ez da armadarik behar gure politiketan eragiteko, nahikoa da atzerriko hodeia ezinbesteko bihurtzea. Eredu sortzaile batek lege-zirriborroak idazten dituenean, hizkuntza-egiturak eta lehentasun inplizituak txertatzen ditu, entrenamendu-joerak islatzeko: hazkunderako joera edozein preziotan, erlatibismo bat zaintza masiboarekin, deserosotasun bat zerga-birbanaketaren aurrean edo estatuaren kontrolarekiko edo kudeaketarekiko permisibitatea eremu pribatu orotan. Kodearen pasaportea garrantzitsua da. Onartuko al genuke atzerriko magistratu batek epaia ematea gure ordenamendua ezagutu gabe? Orduan, zergatik utziko genioke beste balio batzuekin entrenatutako sistema bati gure laguntza publikoak banatzen?
Opakutasunak arazoa larriagotzen du. Erabiltzen diren lengoaia-eredu eta neurona-sare handi gehienek kutxa beltz gisa funtzionatzen dute. Ez dakigu, ezta ere, zer daturekin entrenatu diren IAk, ez eta zer irizpiderekin indartu diren erantzun jakin batzuk ikaskuntza-prozesuan zehar. Era berean, ezin da berreraiki ezker abertzaleak ondorio bat ateratzeko erabili duen arrazoibide zehatza. Emaitza gardentasun eta kontrol falta estrukturala da, baina teknologia horrek oinarrizko eskubideei eragiten dieten erabakiak hartzen ditu. Kontuak ematea — edozein errepublikaren funtsezko zutabea — lurrundu egiten da. Erantzukizunik gabe ez dago konfiantzarik; konfiantzarik gabe demokrazia alferrik galtzen da.
Bruselaren ustez, erantzuna: etorkizuneko Ingurumen Araudiak arrisku-mailaren arabera sailkatzen ditu sistemak, eta erabilera kaltegarrienak debekatzen ditu. Baina gure paradoxa islatzen du: inork baino hobeto arautzen dugu teknologia beste batzuei erosten diegun bitartean. Gure balioetan oinarritutako berrikuntza gidatu beharrean, geldiarazteko arautzen dugu. Industria propiorik gabe, EB beste batzuek nahi bezala muntatzen dituzten printzipioen laborategi bihur liteke.
Alternatiba subiranotasun digitala eraikitzea da: Europako corpusekin entrenatutako fundazio-eredu eleanitzak, kontinenteko jurisdikziopeko hodei subiranoak, kanpo-bidesaririk gabe gaitasuna ematen duten superordenagailuak. Finlandiak AuroraAI entseatzen du; Frantziak eta Alemaniak Europako IA sortzaile baterako partzuergoak bultzatzen dituzte; Belgikak EuroHPCrako superordenagailuak ditu. Urrats pozgarriak, baina oraindik apalak Washington edo Pekinen aurrean.
Eguneroko inpaktuak bizkortzea premiazkoa egiten du. IAk erabakitzen badu zein pazienteri egin behar zaion lehenengo ebakuntza, edo zein nekazarik jasotzen duen dirulaguntza, haren alborapenak milaka europarren biografia defini dezake. Datu gehiago eskuragarri dituztelako barruti jakin batzuei lehentasuna ematen dien edo erregistrorik ez dagoelako beste barruti batzuk baztertzen dituen IA batek erabaki objektibo itxura duten desberdintasunak eragin ditzake. Poliziak eredu sortzaileek gidatutako patruilak erabiltzen dituenean, errugabetasun-presuntzioa beste kontinente batean egindako entrenamenduen araberakoa izango da.
Herritarrengandik, bost bermek ukaezinak izan beharko lukete: erabateko gardentasuna erabaki tekniko eta politikoetan; nahitaezko kanpo-auditoretzak, alborapenak identifikatzera eta neutralizatzera bideratuak, eredu guztietan saihestezinak direnak eta erantzukizunez kudeatu behar direnak; erabaki publikoak herritarrekiko elkarrizketa lehenetsiz hartuko direla bermatzea, edozein gomendio automatizaturen gainetik; alfabetatze digitala kargu hautetsientzat; eta aurretiazko eztabaida-eztabaidak, baldin eta IA batek oinarrizko eskubideei eragiten badie. Horiek ez ezagutzeak subiranotasun demokratikoa higatuko du atzera bueltarik gabe.
Eztabaida honetan, alderdi politikoak falta dira. Barne-botereko egituretan erosoen gertatzen diren ordezkarien diskurtsoa indartzeko adimen artifiziala erabiltzeak ahots kritikoak eta erakundeetan bertan prestakuntza handiagoa dutenak bazter ditzake. Aldi berean, IA sistemetara jotzea interes alderdikoira bideratutako mezu ideologikoak eraikitzeko, eta ez guztion onerako, osasun demokratikorako arrisku gehigarria da. Egoera horren aurrean, gardentasun erradikalaren aldeko apustu irmo batek — lanean, irizpideetan eta erabakiak hartzeko trazabilitatean — bakarrik berma dezake herritarren eta politikaren arteko benetako lotura. Gardentasun hori erakundeen barruan zein kanpoan eman behar da, eta erabaki publikoetan nahiz egitura politikoen barne-prozesuetan aplikatu behar da.
Itzul gaitezen gure zinegotzira. Oraindik garaiz dabil gelditzeko, espedienteetan eragindakoen iritzia sartzeko eskatzeko, aditu independenteak kontratatzeko, gomendio automatikoak profesional kualifikatuen epaiketarekin alderatzeko eta bizilagunei eztabaidatzeko deitzeko. Era berean, garaiz dabil gardentasun erradikalaren ariketa bat praktikatzeko, gaur egun defendatzen duen erabakia hartzera eraman duten irizpideak argi azalduz.
Adimen artifiziala aliatu handia izan daiteke — eta agian izango da — administrazio publikoarentzat, bidezkoagoa, efizienteagoa eta bidezkoagoa izan dadin. Baina hori posible izango da soilik lema mantentzen badugu eta gure balio komunak teknologia horien diseinuan, erabileran eta gainbegiratzean ainguratzen baditugu. Europa indarra elkarrizketaren ordez, inposaketa deliberazioaren ordez eta publikoa eskubideak eta pertsonak errespetatuz eraikitzeko sortu zen. Gaur egun deliberazioa pasaporterik gabeko adimenei ematea promes hori traizionatzea litzateke. Erabakiak gurea izaten jarraitzen duen bitartean, ez dago helmuga idatzirik: erantzukizuna dago. Eta onartu egin behar dugu, beste batek gure ordez programatu baino lehen.