TRIBUNA
CESC BATLLE
Intel·ligència artificial? No, gràcies!
El títol d’aquest article és capciós, en tant que hi ha moltíssimes variants d’intel·ligència artificial (IA) que són molt beneficioses per a la humanitat. Com per exemple els programes d’anàlisi d’imatges mèdiques, que després d’haver-se entrenat amb quantitats ingents d’imatges de pacients reals, aprenen a distingir indicis de malalties que podrien passar desapercebuts i, per tant, ignorats, a la majoria de metges no especialistes en aquella malaltia. Però la IA també pot ser extremadament perillosa. La IA es classifica en tres tipus: especialitzada, general i superintel·ligència. L’especialitzada (també dita estreta o feble) és aquella que ha sigut creada i entrenada per a dur a terme només una tasca, i és la predominant en les aplicacions ja disponibles. Per exemple, l’anàlisi d’imatges mèdiques per a identificar càncers; l’anàlisi de com i quan reomplir estocs d’una fàbrica o magatzem, en funció dels patrons de demanda; o la més quotidiana d’analitzar les fotos dels nostres mòbils per a classificar-les segons temàtiques, sense la nostra intervenció. La general (o forta) seria la que pot pensar i funcionar com els humans. Segons molts, estem encara mol lluny de crear una IA general. Però, segons d’altres, algunes de les IA especialitzades ja existents avui dia podrien ser precursores viables d’una IA general. I el problema de la IA general és que porta a la singularitat i la superintel·ligència.
MÉS QUE NOSALTRES. La velocitat de transmissió d’informació dels sistemes informàtics és uns 10,000 cops més ràpida que la dels organismes biològics i, així, en cas que arribéssim a generar una IA general, seria capaç d’aprendre molt més de pressa que nosaltres. Amb la qual cosa, un cop establerta, ben aviat assoliria la igualtat amb la nostra intel·ligència, que és el que es coneix com la singularitat. Però és que, a partir d’aquí, i com ja ha quedat demostrat amb sistemes d’IA especialitzats ja existents (vegeu Una nova intel·ligència, El Punt Avui, 1-maig-2018), el nivell i capacitats de les IA generals creixeran de forma exponencial, esdevenint, ben ràpidament, infinitament superiors a la intel·ligència humana. I és en referència a aquest perill que el darrer 29 de març l’Elon Musk, fundador de Tesla i SpaceX, juntament amb moltes altres llumeneres del sector tecnològic, com ara Steve Wozniak, cofundador d’Apple, i Jaan Tallinn, cofundador de Skype, varen publicar un manifest en què reclamaven una moratòria de sis mesos en el desenvolupament de tots els programes d’IA existents, per tal de permetre el debat i implementació de legislació que ens protegeixi contra aquest risc. El manifest dispara amb bala, i inclou afirmacions com ara: “Hem de desenvolupar ments artificials que eventualment puguin sobrepassar les nostres, fer-nos obsolets, i puguin substituir-nos?”, o “Aquesta mena de decisions no s’han de delegar a uns líders tecnològics que no ha votat ningú”. També suggereix certs principis, extremadament raonables, per a aquesta legislació a desenvolupar, com que les restriccions, controls i precaucions han de ser proporcionals al risc existencial que plantegen les IA generals.
CAP MENA DE LEGISLACIÓ. Afortunadament, mentre als EUA no s’està plantejant cap mena de legislació ni se l’espera, al Parlament Europeu s’està discutint la European Union’s Artificial Intelligence Act, que hauria d’entrar en vigor a finals del 2023. I aquesta és una àrea en què la UE pot exercir un lideratge mundial de facto, com recentment va passar en l’àrea del dret a la privadesa. Efectivament, la UE no té poder militar, però sí que té poder econòmic, en tant que representa un mercat d’uns 500 milions de persones. Com que les empreses no poden ignorar aquest mercat, han de complir per força les lleis imposades per la UE, i, en comptes de tenir graus de compliment diferents per a diferents parts del món, amb els costos afegits que això suposa, les empreses prefereixen adherir-se a un sol conjunt de normes, per força el més exigent. Així, la legislació de la UE iguala per dalt l’exigència a totes les empreses i productes del món. En el darrer segle, la humanitat ha après que tots els països del món s’havien d’autolimitar en l’ús d’altres tecnologies que també representaven risc existencial, com les armes químiques, biològiques i nuclears. Per tant, sabem com fer-ho. Ara també ho hem de saber fer amb les IA generals. Si no en sabem i ens acaben esborrant del mapa no serà sinó la confirmació circular que mereixíem extingir-nos, en ser tan babaus com per permetre la proliferació de les eines de la nostra pròpia destrucció.