Administrazioak erabiltzen dituen algoritmoen erregistro publiko bat sortzearen inguruan hitz egin dute nazioarteko lau adituk Eusko Legebiltzarrean, EH Bilduko Lore Martinez Axpek proposatuta. Artikulu sorta batean haiek esandakoak laburbiltzen ari gara eta egunero bat argitaratuko dugu (hemen lehenengoa eta bigarrena). Hirugarren hitzaldia Manuela Battaglini Manrique de Larak eman du. Abokatua eta etika digitaleko aholkularia da Battaglini, erabaki algoritmikoetan eta datuen babesean aditua. Azkenaldian hautsak harrotu dituen ChatGPT tresnari buruz aritu da.
Neurozientzia konputazionalean eragin handikoa den David Marr ikerlariak, adimen artifizialeko edozein sistema hiru mailatan ulertu behar dela definitu zuen. Lehenengoa da mailarik garrantzitsuena, teknologiaren helburua zehaztea: zergatik sortuko den teknologia, zertarako balioko duen eta zein arazo konponduko dituen. Gainerako biak algoritmoaren eta hardwarearen inplementazioari dagozkio.
Teknologia zergatik behar dugun galdetzearen garrantzia
Battagliniren esanetan, teknologia berri gehienak diseinatzean, inplementazioari ematen zaio garrantzia, ez helburuak eta zergatiak zehazteari. ChatGPTrekin gauza bera gertatzen da: teknologiaren jabea den OpenAI enpresak ez du definitu zergatik eta zertarako sortu duen. Oinarrizko gabezia horren eraginez, jendarteari kalte egiten dioten ChatGPTren erabilerak ugaritzen ari direla dio.
Sam Altman, OpenAIko buruak ere, duela gutxi bere kezka adierazi zuen Twitterren, adimen artifiziala desinformazio masiborako erabili daitekeelako. Horri erantzunez, Battaglinik esan du: “Orain hasi dira arazoetan pentsatzen, ChatGPT Microsofti 10.000 milioitan saldu ondoren. Diruzalekeriari eman diote lehentasuna. Nola garatu pentsatu dute, baina sekulan ez zergatietan”.
ChatGPT pertsonen mailatik gertu?
Adimen artifizialak deep learning edo ikaskuntza sakonaz gain, ulermen sakona behar duela azaldu du adituak. Hain zuzen, hori da ChatGPTren ahulguneetako bat: ez du ulertzen ematen dituen erantzunetako hitz bat bera ere. Giza adimenaren eta ChatGPT bezalako hizkuntza-eredu handien arteko lau desberdintasun zerrendatu ditu:
- ChatGPTk ez du gaitasunik inguratzen duen errealitatearekiko modu independentean pentsatzeko.
- Gizakiok arrazoiketaren bidez ondorioetara iristeko gai gara, ChatGPTk ezin du horrelakorik egin. Galderei erantzuten die, baina ez du ziurtatzen erantzun zuzena denik, asmatutako zerbait ere izan daiteke.
- ChatGPTk ez du ulertzen nola funtzionatzen duen hizkuntzak.
- Gizaki bati ezagutza berri bat ematen badiozu, ikasteko gai da. ChatGPTaren kasuan berriro entrenatu beharra dago. Horren eraginez, ezin ditu erantzun 2022ko urtarrilaz geroztik eman diren gertaerei buruzko galderak. Ordura arteko datuekin entrenatu baitzuten.
Yann LeCun adimen artifizialaren aitabitxietako baten hitzak ekarri ditu gogora jarraian Battaglinik: “Denbora dexente da, Google eta Metak, ChatGPTren antzeko teknologiak dituztela beren laborategietan. Orain, ChatGPTren iritsierarekin publiko orokorrak posible dena ikusi du, baina oraindik ez dute ulertu zer den ezinezkoa”. LeCunen ustez, ezinezkoa da gizakien mailako adimen artifiziala sortzea ChatGPT bezalako hizkuntza-eredu handiekin.
Hari horretatik, Battaglinik esan du ChatGPT ez dela inolaz ere pertsonekin konparagarria, OpenAIk zenbait esparru profesional eta akademikotan gizakien mailako erantzunak emateko gai dela dioen arren. OpenAIk, eta erraldoi teknologikoek, nahasmenarekin jolasten dutela adierazi du adituak, hype deitua sortzeko, beren tresnen ustezko gaitasuna puzteko gezurrak esatera iritsiz.
Adibidez, ChatGPT abokatutza azterketa bat bikainarekin gainditzeko gai dela dio OpenAIk, baina ez dago argi nola erantzungo lukeen abokatuek eguneroko bizitzan dituzten arazoen aurrean. Izan ere, hizkuntza-ereduek eta pertsonek modu desberdinean ebazten dituzte problemak.
Sam Altman OpenAIko CEOaren beste adierazpen batzuk ere ekarri ditu gogora Battaglinik: “Etorkizunean adimen artifizialeko kontseilariak egongo dira osasun arreta ordaindu ezin dutenentzat”. Erabateko zentzugabekeria iruditzen zaio hori adituari: “Orduan, baliabide nahikorik ez dutenei bot batek emango die osasun arreta? Haien bizitza arriskuan jarriz?”.
Gary Marcus-en esaldi batekin laburbildu du egoera: “Ekaitz perfektua dugu: enpresen arduragabekeria, erabileraren zabalkunde orokorra, erregulazio falta eta zalantza kopuru erraldoia”.
Ez sinestu hype-a
Amaitzeko, adimen artifizialaren inguruan zabaldu diren ustezko arriskuen atzean dauden benetako arazoak zerrendatu ditu Battaglinik:
- ChatGPT bezalakoek propaganda kanpaina erraldoiak eragingo dituztela esaten da, baina Battagliniren esanetan benetako arriskua tresna horietan jarri dugun gehiegizko konfiantza da: egiantzekoak diruditen baieztapenak egiten dituzte, baina ez daude egia sortzeko entrenatuak.
- Automatizazioaren bidez lanpostu asko desagertuko direla esaten da, baina adituaren ustez errealitatean adimen artifizialeko tresnek lanaren esplotazioa eragiten dute, langileei boterea kentzen diete eta enpresa gutxi batzuei eman. Inperialismo teknologikoa ere badago: adimen artifizialaren garapenean Nigerian gaizki ordaindutako langileak daude.
- Askotan aipagai diren arrisku existentzialak ere ekarri ditu gogora: etorkizunean adimen artifizialak giza adimena gainditu eta gure zibilizazioaren kontrola galduko dugula. Bere esanetan, benetako segurtasun arazoak epe laburrekoak dira: norbaitek ChatGPT moduko sistemei eraso egin eta haien kontrola hartuz gero, datu pertsonalak zabaltzeko erabili daitezke, gero eta konektatuago dagoen mundu fisikoan kalteak eragiteko, Interneten zehar birusak zabaltzeko…