Administrazioak erabiltzen dituen algoritmoen erregistro publiko bat sortzearen inguruan hitz egin dute nazioarteko lau adituk Eusko Legebiltzarrean, EH Bilduko Lore Martinez Axpek proposatuta. Artikulu sorta batean haiek esandakoak laburbiltzen ari gara eta egunero bat argitaratuko dugu (hemen lehenengoa). Bigarren hitzaldia Michael Donaldson Carbónek eman du. Bartzelonako Udaleko Berrikuntza Teknologikoko, Administrazio Elektronikoko eta Gobernu Oneko ordezkaria da.
Lehendik ere teknologiaren erabileraren erregulazioa garrantzitsua bazen ere, are beharrezkoago ikusten du orain Donaldsonek, azkenaldian adimen artifizialaren inguruan eman diren albiste eta polemikaren ondoren. Izan ere, arrazoitzen du, XXI. mendeko lehen urteetan gizateriaren historia osoan adina berrikuntza teknologiko disruptibo izan ditugu, eta hala ere, administrazio publikoak ez du egoerari aurre egiteko behar den ezagutza eta profil teknikoko langilerik.
Horregatik, 2020an, Bartzelonako Udalak teknologia emergenteei buruzko adierazpen politiko batean adierazi zuen teknologiak beti pertsonen zerbitzura egon behar duela, giza eskubideak errespetatu behar dituela, digitalak barne, eta diskriminazio algoritmikoaren aurkako neurriak hartu behar direla.
Jarraian, 2021an bi helburuko laneko estrategia finkatu zuten. Batetik, “algoritmoak eta big data erabiliz administrazio erreaktibotik proaktibora pasatzea”, herritarrak hobeki ezagutuz haiei zerbitzu digital hobeak eskaintzeko. Bestetik, berme sistema bat sortzea eskubideak eta diskriminaziorik eza ziurtatzeko. Helburu horrekin, 2022 amaieran protokolo bat onartu zuten sistema algoritmikoak berme horiekin inplementatzeko.
Protokolo horrek, udalak algoritmo bat erabili aurretik, eta ondoren, hartu beharreko neurriak zehazten ditu. Zerbitzu publikoa eskaintzeko sistema algoritmiko bat erabili aurretik, informatika zerbitzuak arriskuen ebaluazioa egiten du. Arriskua handia bada, algoritmoa erabiltzen hasi aurretik, adimen artifizialeko kontseiluaren txostena prestatzen du, kontuan izan beharrekoak zehaztuz. Arrisku handikotzat hartzen dira eskubide sozialak edo herritarren datuak ukitzen dituzten prozesuak eta dirulaguntzak banatzean diskriminazioak eragin ditzaketenak.
Algoritmo bat inplementatu ondoren, auditatu egin behar da, prozesuan bazterkeriarik ez dela egon egiaztatzeko, lan egiten duen bitartean gauza berriak ikas baititzake. Orain, hori nola egin zehazteko lanean ari dira. Alde batetik prozesuaren gardentasuna eta trazabilitatea zaindu behar dituzte, eta bestetik, algoritmoa garatu duen enpresaren jabetza intelektuala. Momentuz ez dute kodea guztiz askatzera behartzea planteatzen.
Azkenik, martxan jartzen ari diren algoritmoen erregistroari buruz hitz egin du. Donaldsonen ustez, garrantzitsuagoa da eskubideak ziurtatzeko arkitektura integrala izatea, algoritmoen erregistro bat izate hutsa baino. Bere esanetan, gutxienez informazio honek egon behar du erregistroan:
- Algoritmoaren oinarrizko informazioa: izena, deskribapena, ze departamentutan erabiltzen den, arduradunaren harremanetarako datuak…
- Erabileraren gaineko informazioa: zein helbururekin erabiltzen den, zein arrisku dituen…
- Datuen erabilera: zer daturekin entrenatu den algoritmoa, zer datu erabiltzen dituen, datu pertsonalak diren edo anonimizatuak, erabilera baldintzak…
- Algoritmoaren ebaluazioa: zer algoritmo mota den, nola ziurtatzen den giza esku-hartzea, azalgarritasuna, eragina…