Ciència

Juli Ponce i Solé

Catedràtic de Dret Administratiu de la Universitat de Barcelona

“Es jubilen un milió de funcionaris i cal repensar l’administració”

“La gràcia serà conjugar jubilacions i tecnologies per fer una barreja virtuosa i aconseguir una administració pública millor”

“És possible l’encaix entre l’humà i la IA, però el risc que cal evitar és que tinguem el pitjor de les màquines i el pitjor dels humans”

A Catalunya tenim molt a millorar i com combinem màquines i humans influirà en les properes dècades
Les màquines són psicòpates i les IA d’avui no raonen com els humans. No tenim encara la IA general
Al Japó un robot es va presentar a les eleccions locals i el van votar perquè no seria corrupte
La IA pot servir per ajudar els jutges a prendre decisions, no per substituir-los totalment

Juli Ponce i Solé (Bar­ce­lona, 1967) és catedràtic de dret admi­nis­tra­tiu de la Uni­ver­si­tat de Bar­ce­lona i una de les ments més ente­ses en admi­nis­tració, sec­tor públic i intel·ligència arti­fi­cial. Va diri­gir l’Escola d’Admi­nis­tració Pública de Cata­lu­nya i és un dels experts del govern per refor­mar l’admi­nis­tració.

Els pro­pers anys es jubi­len a l’Estat un milió de fun­ci­o­na­ris. Es poden suplir amb màqui­nes?
Hi ha una onada de jubi­la­ci­ons al sec­tor públic per un tema demogràfic i, alhora, també hi ha càlculs de quin nom­bre de llocs de tre­ball es podrien arri­bar a auto­ma­tit­zar amb sis­te­mes diver­sos que poden incloure intel·ligència arti­fi­cial, i el nom­bre és d’un milió. El càlcul que es fa sobre auto­ma­tit­zació és per al 2030. A l’hora de pen­sar el model d’admi­nis­tració pública del futur cal tenir en compte els dos fac­tors.
Vostè com ho veu? És una opor­tu­ni­tat o un pro­blema amb la legis­lació i la IA d’avui?
La jubi­lació mas­siva d’emple­ats del sec­tor públic dona lloc a una opor­tu­ni­tat de repen­sar quina admi­nis­tració teníem fins ara i quina volem els pro­pers anys en el con­text de canvi tec­nològic acce­le­rat en què tenim a la nos­tra dis­po­sició una sèrie de tec­no­lo­gies que podrien faci­li­tar una admi­nis­tració pública millor. Una admi­nis­tració que presti millors ser­veis públics i faci eficaç el dret a una bona admi­nis­tració dels ciu­ta­dans. La gràcia serà con­ju­gar jubi­la­ci­ons i tec­no­lo­gies per fer una bar­reja vir­tu­osa i acon­se­guir una admi­nis­tració pública millor. Hi ha mol­tes pos­si­bi­li­tats de millora i ris­cos que cal valo­rar.
Quins són els ris­cos?
Són diver­sos i afec­ten els matei­xos drets dels ciu­ta­dans. Drets com la pro­tecció de dades o la igual­tat, que es pot veure com­pro­mesa pels biai­xos dels sis­te­mes d’IAl. De fet, si mirem arreu del món, en algu­nes admi­nis­tra­ci­ons que han entrat deci­di­da­ment en l’auto­ma­tit­zació amb sis­te­mes d’IA s’han produït casos sonats que han gene­rat molt mala admi­nis­tració. El cas de Robo­debt a Austràlia, un pro­grama de segu­re­tat social i recla­mació de quan­ti­tat als ciu­ta­dans que no havien rebut la quan­ti­tat i ha gene­rat liti­gis. Un altre cas sonat i que té una sèrie de tele­visió que reco­mano és el del senyor Bates con­tra el ser­vei postal anglès. Un pro­grama va gene­rar una sèrie d’errors a les ofi­ci­nes de cor­reus de la Gran Bre­ta­nya, els van impu­tar als gerents de les ofi­ci­nes i això va supo­sar un autèntic mar­tiri, amb aco­mi­a­da­ments, liti­gis i suïcidis, per després des­co­brir que el pro­blema no havia estat dels humans sinó dels sis­te­mes. Fins i tot a Espa­nya tenim un cas que està pen­dent de reso­lució al Tri­bu­nal Suprem, que és l’ano­me­nat cas Bosco, un sis­tema d’IA sen­zill que tra­du­eix la legis­lació d’ener­gia espa­nyola, en con­cret l’ano­me­nat bo social per a les per­so­nes que estan en situ­ació de pobresa energètica. El sis­tema es va crear per tra­mi­tar més ràpida­ment la sol·lici­tud del bo social. I què va sor­tir mala­ment? Doncs la Fun­dació Civio va des­co­brir que tenia errors i quan va dema­nar el dret d’accés per veure el pro­grama informàtic, l’admi­nis­tració pública l’hi va dene­gar. De moment, als tri­bu­nals anem Admi­nis­tració 2 - Civio 0. Dos tri­bu­nals han donat la raó a l’admi­nis­tració perquè no ense­nyi els budells del pro­grama informàtic, al·legant temes de pro­pi­e­tat intel·lec­tual. Fa pocs dies el Suprem ha admès el recurs de cas­sació i hi haurà una sentència de la màxima instància on es dis­cu­tirà si es pot acce­dir als budells informàtics del pro­grama Bosco per saber si hi ha errors o no. Serà un cas líder que ens mar­carà la pauta dels pro­pers anys.
També hi ha cos­tos, oi?
Tenim cos­tos de tipus ambi­en­tal perquè la IA con­su­meix una quan­ti­tat d’aigua i ener­gia impor­tant. Ens cor­res­pon als humans, també en el sec­tor públic, pon­de­rar cos­tos i bene­fi­cis, i veure exac­ta­ment on podem millo­rar l’admi­nis­tració i si val la pena adqui­rir sis­te­mes d’IA.
A Cata­lu­nya el cas més cone­gut és l’algo­ritme de Ris­canvi?
Pro­ba­ble­ment sí. És un sis­tema molt sen­zill algorítmic, no hi ha IA perquè tot és humà, que ha estat influ­en­ciat per un col·lega meu de la Uni­ver­si­tat de Bar­ce­lona, el doc­tor Anto­nio Andrés Pueyo i el seu equip, i és un sis­tema que té la volun­tat d’aju­dar a la presa de deci­si­ons en l’àmbit peni­ten­ci­ari en temes de lli­ber­tats con­di­ci­o­nals, etcètera. A mi em sem­bla una ini­ci­a­tiva interes­sant, però no està exempt de crítiques. Alguns estu­dis par­len del cas Ris­canvi, com en altres casos, per l’ano­me­nat biaix d’auto­ma­tit­zació.
Què és aquest biaix?
Que els humans, tots, ten­dim a con­fiar molt en les màqui­nes perquè gene­ral­ment fan la feina bé: gene­ral­ment podem con­fiar en el GPS perquè ens durà on volem, però de vega­des ens fica en uns camins absurds i hi ha gent que s’ha mort per haver-hi fet con­fiança. En el cas de Ris­canvi podria haver-hi un biaix d’auto­ma­tit­zació del dar­rer humà que pren la decisió perquè en un 97% dels casos accepta el que li diu el sis­tema algorítmic.
A Cata­lu­nya quins usos d’IA hi ha més a l’admi­nis­tració?
S’han estès molts bots de con­versa a les admi­nis­tra­ci­ons muni­ci­pals i altres per man­te­nir un diàleg amb l’usu­ari. Són sis­te­mes interes­sants que interac­tuen, però de nou els ris­cos hi són.
Com s’ima­gina l’admi­nis­tració el 2035? Amb més humans que màqui­nes o més màqui­nes però els humans por­tant el timó?
D’aquí a una dècada, sens dubte, tin­drem més humans que màqui­nes, però la presència de sis­te­mes d’auto­ma­tit­zació admi­nis­tra­tiva, inclosa la IA, s’incre­men­tarà. El que és difícil de dir és en quina pro­porció. És pos­si­ble fer l’encaix ade­quat entre l’humà i la màquina per millo­rar l’admi­nis­tració. El risc, però, és que tin­guem el pit­jor de cada món: el pit­jor de les màqui­nes (manca d’empa­tia, mane­res de rao­nar...) i el pit­jor dels humans, que som esbi­ai­xats i tenim limi­ta­ci­ons en la capa­ci­tat de pro­ces­sar infor­mació. És el que hauríem d’evi­tar.
Amb la IA no tin­drem una admi­nis­tració millor en deu anys?
Depèn. L’admi­nis­tració que tenim avui és mani­fes­ta­ment millo­ra­ble. Per tant, és pos­si­ble que sí, amb una com­bi­nació d’humans i màqui­nes. Dependrà de les deci­si­ons estratègiques que es pren­guin ara pen­sant en les pro­pers dècades. I dependrà de deci­si­ons huma­nes, això no ens ho solu­ci­o­narà el ChatGPT. A Cata­lu­nya tenim molt marge de millora segons rànquings inter­na­ci­o­nals, i com com­bi­nar màqui­nes i humans influirà en les pro­pe­res dècades.
Una dana amb més IA evi­ta­ria la mala gestió? Per segons què, més val estar en mans de les màqui­nes que dels humans.
Per segons què, sí, però sem­pre que les màqui­nes esti­guin super­vi­sa­des per humans. No tinc cap dubte que amb sis­te­mes avançats d’auto­ma­tit­zació d’IA fenòmens com el des­as­tre de la dana segu­ra­ment seran més fàcils de pre­veure, detec­tar i reac­ci­o­nar-hi. Sem­pre ens tro­ba­rem el fac­tor humà. Als anys vui­tanta el coro­nel Petrov tre­ba­llava en una base de llançament de míssils nucle­ars de la Unió Soviètica. Un dia, a través dels seus sis­te­mes algorítmics, va detec­tar un atac nuclear nord-ame­ricà. Petrov tenia a les seves mans res­pon­dre a l’atac. Si no res­po­nia i s’estava pro­duint l’atac, això supo­sava la des­trucció de la Unió Soviètica. Si no s’estava pro­duint perquè hi havia algun error en el sis­tema algorítmic i ell res­po­nia, això sig­ni­fi­cava la des­trucció dels Estats Units i pro­ba­ble­ment del món. Va ser una estona angu­ni­osa. El coro­nel va deci­dir no res­pon­dre al supo­sat atac nuclear nord-ame­ricà. Va espe­rar uns minuts i, efec­ti­va­ment, no hi havia cap atac. D’aquí a deu anys podrem pre­ve­nir danes i guer­res nucle­ars, però compte amb la com­bi­nació humà-màquina.
En el seu dar­rer lli­bre parla de la reserva d’huma­ni­tat. Tin­drem una admi­nis­tració en què la força bruta la faran màqui­nes i la decisió més selec­tiva o política serà humana? O la reserva d’huma­ni­tat ha d’estar en tots els nivells?
La reserva d’huma­ni­tat sig­ni­fica l’existència d’una sèrie de tas­ques i fun­ci­ons que no hau­rien de ser adop­ta­des per les màqui­nes. El ciu­tadà què pre­fe­ri­ria, que el jutgés una màquina o un humà?, o que les deci­si­ons urbanísti­ques del seu poble no les prengués el ple de l’Ajun­ta­ment sinó una màquina en què el ple ho hagués dele­gat?, o que la regu­lació sobre l’accés a la uni­ver­si­tat o qüesti­ons mèdiques les adoptés una màquina? La idea de reserva d’huma­ni­tat no és ori­gi­nal, ja als anys setanta del segle pas­sat es va llançar un bot de con­versa ano­me­nat Eliza i la gent li aga­fava estima. La reserva d’huma­ni­tat en el sec­tor públic té tres raons. Les màqui­nes són psicòpates i ni a mitjà ni a llarg ter­mini els sis­te­mes dei­xa­ran de ser psicòpates perquè no tenen cap mena d’empa­tia. En canvi, el 99 per cent dels humans no som psicòpates i, per tant, el nos­tre cable­jat neu­ro­nal fun­ci­ona bé, tenim neu­ro­nes mirall i tenim la sen­sació empàtica entre­nada. Al sec­tor públic, quan s’han de pren­dre deci­si­ons com expro­piar o san­ci­o­nar, el fac­tor d’enten­dre en quina situ­ació es troba la per­sona, les màqui­nes no el tenen. No estem davant d’una intel·ligència arti­fi­cial gene­ral, ni de bon tros. En segon lloc, les IA que tenim avui en dia no rao­nen com els humans. La IA de tota la vida, la més sen­zi­lleta, la dels anys cin­quanta, es basa en sis­te­mes de pro­ces­sa­ment d’infor­mació abduc­tius. Les més sofis­ti­ca­des, d’apre­nen­tatge automàtic o pro­fund, tenen un rao­na­ment o inferència induc­tiu. Aga­fen unes quan­ti­tats de dades impres­si­o­nants, fora de l’abast de qual­se­vol humà, i a par­tir d’aquí dedu­ei­xen patrons, pre­dic­ci­ons, deci­si­ons... El que passa és que els humans no només fun­ci­o­nem d’aques­tes dues mane­res: tenim un conei­xe­ment del món i un sen­tit comú i a par­tir d’aquí som capaços de cons­truir unes hipòtesis que ens per­me­ten pren­dre deci­si­ons encer­ta­des. I la ter­cera raó és que en la presa de deci­si­ons del sec­tor públic hi ha la neces­si­tat d’escol­tar la per­sona afec­tada, per tant no podem posar en marxa sis­te­mes automàtics que tirin milles i pren­guin deci­si­ons de manera auto­ma­tit­zada i no s’atu­rin. Cal escol­tar, rebre la infor­mació i pro­ces­sar-la.
També parla al lli­bre de les cai­xes negres de la IA.
Exacte. Hi ha sis­te­mes tan sofis­ti­cats que sabem la infor­mació que els entra i la decisió que pre­nen, però entre­mig no sabem com pre­nen la decisió. Algú dirà: “Com els humans.” No és exac­ta­ment igual. L’opa­ci­tat dels sis­te­mes és més gran que la dels humans. Per cert, la reserva d’huma­ni­tat ja ha estat inclosa en el regla­ment d’IA de la Unió Euro­pea pel que fa als jut­ges. Diu que la IA pot ser­vir per aju­dar els jut­ges a pren­dre deci­si­ons, però no per subs­ti­tuir-los total­ment.
La reserva d’huma­ni­tat pot pro­pi­ciar la cor­rupció a l’admi­nis­tració? No creu que les màqui­nes psicòpates podrien reduir la cor­rupció humana?
Aquest és un pen­sa­ment rao­na­ble, i ho és tant que fa uns anys al Japó es va pre­sen­tar un robot a les elec­ci­ons locals i va obte­nir un bon nom­bre de vots. Un dels argu­ments dels votants era que almenys no seria cor­rupte. Tam­poc no hem de ser inge­nus. Els pro­gra­mes i les dades d’aquests sis­te­mes venen d’algun lloc, no pro­ve­nen de mons purs. L’aura imma­cu­lada dels sis­te­mes d’IA s’ha de mati­sar. Així com entren biai­xos a través de pro­gra­ma­dors humans, es pot arri­bar a mani­pu­lar els sis­te­mes. És veri­tat que, en prin­cipi, les màqui­nes no han de tenir incen­tius per actuar de manera cor­rupta.
Puig­de­mont pot­ser pre­fe­ri­ria que el jutgés una IA abans que el jutge Marc­hena. San­dro Rosell, una IA abans que la jut­gessa Lamela. Un veí de Pai­porta, que ges­tionés una IA i no Car­los Mazón.
Abans que pre­fe­rir una cosa o una altra, em pre­gun­ta­ria: “Aquesta màquina, d’on ha sor­tit? Aquest sis­tema ha estat ela­bo­rat inter­na­ment al sec­tor públic o ha estat exter­na­lit­zat i com­prat a una empresa pri­vada que ha ela­bo­rat el sis­tema?” i qui­nes garan­ties hi ha que no s’hi hagin introduït biai­xos o altres ele­ments. No és tan sen­zill. De fet, fa pocs mesos es va estre­nar la pel·lícula Justícia arti­fi­cial, que reco­mano.


Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.