Societat

Món

La revolució tecnològica

Límits a les màquines

La irrupció del programa ChatGPT fa que es disparin les alarmes contra el desenvolupament incontrolat de la intel·ligència artificial

Els nous sistemes poden aportar beneficis en àmbits com ara la salut o la lluita contra el canvi climàtic, però també perjudicis socials

La UE i el Regne Unit treballen en marcs reguladors que volen convertir en referents mundials

Els EUA reuneixen les empreses d’IA i la Xina exigeix controls abans de llançar productes al mercat

L’angoixa ve de lluny, però el britànic Geof­frey Hin­ton, con­si­de­rat un dels pares de la intel·ligència arti­fi­cial (IA), la va fer esca­lar al nivell d’alarma. A prin­ci­pis de maig, aquest inves­ti­ga­dor informàtic de 75 anys va aban­do­nar la feina a Goo­gle per poder denun­ciar amb més lli­ber­tat els perills d’una tec­no­lo­gia avançada que va con­tri­buir a desen­vo­lu­par i que per­met gene­rar con­tin­guts com ara melo­dies, imat­ges o tre­balls acadèmics a par­tir de l’esca­neig previ de grans quan­ti­tats d’infor­mació digi­tal.

Ana­lit­zant el seu poten­cial, Hin­ton des­criu un pano­rama ater­ri­dor, la pos­si­bi­li­tat que la IA superi la intel·ligència humana més ràpid del pre­vist, que aquests sis­te­mes inun­din inter­net d’infor­mació falsa, que subs­ti­tu­ei­xin cada cop més llocs de tre­ball i que puguin aca­bar desen­vo­lu­pant armes autònomes, autèntics “robots assas­sins”. “Les per­so­nes i les empre­ses per­me­ten als sis­te­mes d’IA no només gene­rar el seu propi codi, sinó també exe­cu­tar-lo pel seu compte”, va expli­car.

Plana el mal­son d’una dis­to­pia en què les màqui­nes tra­cen els pro­pis objec­tius, dife­rents dels fixats pels seus cre­a­dors humans. “Aquests sis­te­mes no tenen una com­prensió ètica del món, no tenen un sen­tit de la veri­tat i no són fia­bles”, denun­cia, per la seva banda, l’expert en IA Gary Mar­cus.

La de Hin­ton és l’última veu auto­rit­zada d’alerta que s’ha fet sen­tir arran de la irrupció del ChatGPT, un pro­grama informàtic basat en la intel·ligència arti­fi­cial, capaç de man­te­nir una con­versa amb un inter­nauta sobre un tema deter­mi­nat. Després d’aquest pro­grama, creat per la com­pa­nyia Ope­nAI el novem­bre pas­sat, Goo­gle va treure la seva pròpia versió de chat­bot, Bard, qua­tre mesos més tard.

L’informàtic britànic adver­teix que la cursa entre els gegants digi­tals per llançar al mer­cat pro­duc­tes basats en aquesta tec­no­lo­gia punta por­tarà a un desen­vo­lu­pa­ment de la IA sense la pro­tecció i la regu­lació ade­qua­des.

El pro­blema que es plan­teja és com es poden apro­fi­tar els avan­tat­ges que pro­por­ci­ona aquesta tec­no­lo­gia revo­lu­cionària –en el camp de la diagnosi mèdica, per exem­ple, la inves­ti­gació científica, la pro­duc­ti­vi­tat econòmica o la lluita con­tra el canvi climàtic– sense caure en abu­sos i per­ju­di­cis per a la soci­e­tat.

Un dels actors més avançats a l’hora de posar límits a la nova tec­no­lo­gia és la Unió Euro­pea (UE), que ultima una llei per regu­lar la IA amb l’ambició que ori­enti el debat polític sobre aquest sec­tor a escala glo­bal. Per la seva banda, la Casa Blanca va reu­nir fa poc els caps de les grans empre­ses que tre­ba­llen en la IA, men­tre que la Xina ha apro­vat un pro­jecte de regla­ment que exi­geix ava­lu­a­ci­ons de segu­re­tat per a tots els pro­duc­tes que uti­lit­zin sis­te­mes d’IA gene­ra­tiva –com el ChatGPT– abans de ser llançats al mer­cat.

En el cas de la UE, les comis­si­ons per al Mer­cat Inte­rior i la de les Lli­ber­tats Civils de l’Euro­cam­bra van apro­var l’11 de maig pas­sat la seva versió de la pro­posta de llei sobre la intel·ligència arti­fi­cial pre­sen­tada per la Comissió Euro­pea. Els euro­di­pu­tats volen garan­tir que aquests sis­te­mes autònoms de gene­ració de con­tin­gut siguin super­vi­sats per humans, siguin segurs, trans­pa­rents, traçables, no dis­cri­mi­na­to­ris i res­pec­tu­o­sos amb el medi ambi­ent.

El text pro­hi­beix els sis­te­mes de vigilància mas­siva en temps real en espais públics –excepte per pre­ve­nir delic­tes i loca­lit­zar pos­si­bles vícti­mes– i veta els models que uti­lit­zin tècni­ques subli­mi­nars per alte­rar de manera “subs­tan­cial” el com­por­ta­ment d’una per­sona, sense que en sigui cons­ci­ent. A més, cata­loga com d’alt risc un seguit de sis­te­mes d’IA amb usos molt específics que només es podran intro­duir en el mer­cat si res­pec­ten els drets fona­men­tals i valors de la UE. Per exem­ple, els que es puguin fer ser­vir per influir en unes elec­ci­ons, o que apli­quin les enti­tats finan­ce­res per ava­luar la solvència i fixar la qua­li­fi­cació cre­ditícia d’una per­sona, o els que des­ple­gui la poli­cia de fron­te­res per con­tro­lar, vigi­lar o pro­ces­sar dades per a la pre­dicció de movi­ments migra­to­ris.

El text també pre­veu mul­tes a les empre­ses de fins al 7% de la seva fac­tu­ració anual mun­dial si incom­plei­xen la nor­ma­tiva. El ple del Par­la­ment Euro­peu haurà d’apro­var la pro­posta a mit­jans d’aquest mes i nego­ciar-ne la versió defi­ni­tiva amb la Comissió i el Con­sell de la UE (els estats mem­bres).

Tam­poc els britànics, que al març van apro­var un lli­bre blanc sobre la IA, es volen que­dar enrere. Lon­dres busca una regu­lació més fle­xi­ble i menys estricta que la que ultima la UE amb l’objec­tiu que la nova tec­no­lo­gia generi con­fiança en el públic i, alhora, ajudi les empre­ses a créixer i crear llocs de tre­ball. L’aspi­ració del Regne Unit és crear un marc regu­la­dor de la IA que sigui més atrac­tiu també per a les empre­ses nord-ame­ri­ca­nes que el comu­ni­tari i que ser­veixi d’exem­ple per a un enfo­ca­ment glo­bal.

Aquesta és una qüestió sen­si­ble per al pri­mer minis­tre britànic, Rishi Sunak, i l’abor­darà avui als EUA, on és de visita ofi­cial, amb el pre­si­dent Biden, empre­sa­ris i des­ta­cats mem­bres del Congrés nord-ame­ricà.

7
per cent
de la seva facturació anual mundial és la multa que rebran les empreses que no compleixin les noves normes de la UE sobre IA, segons la proposició de llei encara no definitiva.


Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.
[X]

Aquest és el primer article gratuït d'aquest mes

Ja ets subscriptor?

Fes-te subscriptor per només 48€ per un any (4 €/mes)

Compra un passi per només 1€ al dia