Ciència

La IA sacseja la campanya presidencial

Kamala Harris i Donald Trump, objectius d’atacs amb hipertrucatge en una cursa electoral ajustada

La IA desafia la verificació de fets i complica el control d’una desinformació desbocada

Els àudios falsos de Harris i Trump, analitzats per ‘The Washington Post’, confonen votants

“Kamala Har­ris va cele­brar l’anunci de Biden de reti­rar-se de la cursa pre­si­den­cial”, deia un àudio que es va fer viral a les xar­xes soci­als fa unes set­ma­nes. Tot i que la notícia era falsa i es va des­men­tir ràpida­ment, l’àudio, gene­rat amb intel·ligència arti­fi­cial (IA), va fer la seva funció: difon­dre infor­mació incor­recta sobre la can­di­data demòcrata. L’expre­si­dent Donald Trump també ha estat víctima d’hiper­tru­catge (deep­fake), com un altre àudio en què s’imi­tava la seva veu insul­tant els espec­ta­dors de Fox News. Aquesta és la nova rea­li­tat de la cam­pa­nya pre­si­den­cial dels EUA del 2024.

Les elec­ci­ons, que es dis­pu­ten entre la vice­pre­si­denta Kamala Har­ris i Donald Trump, s’estan veient afec­ta­des per la pro­li­fe­ració de con­tin­guts gene­rats amb IA, espe­ci­al­ment en forma d’hiper­tru­catge. Aquesta tec­no­lo­gia per­met crear vídeos, àudios i imat­ges fal­ses amb una pre­cisió alar­mant, i la seva expansió està sac­se­jant el debat públic i les enques­tes, que mos­tren una cursa elec­to­ral molt ajus­tada. Els experts adver­tei­xen que qual­se­vol inter­ferència pot fer decan­tar la balança.

Segons The Was­hing­ton Post, l’ús d’hiper­tru­catge per mani­pu­lar àudios ha aug­men­tat de manera expo­nen­cial des de prin­ci­pis del 2023. “La IA ha fet increïble­ment fàcil copiar la veu d’algú”, explica un arti­cle del diari, que des­taca la crei­xent difi­cul­tat per detec­tar fal­si­fi­ca­ci­ons. Això afecta espe­ci­al­ment els can­di­dats pre­si­den­ci­als, amb milers d’hores de dis­cur­sos i entre­vis­tes dis­po­ni­bles en línia que esde­ve­nen objec­tius fàcils per a la mani­pu­lació.

L’hiper­tru­catge és una fal­si­fi­cació d’àudio o de vídeo cre­ada amb IA que per­met simu­lar que algú ha dit o ha fet alguna cosa que mai va pas­sar. En l’àmbit polític, són uti­lit­zats per crear notícies fal­ses amb l’objec­tiu de des­pres­ti­giar can­di­dats o mani­pu­lar la per­cepció pública. Aquesta tec­no­lo­gia no és nova, però en els últims anys, gràcies als avenços de la IA, s’ha fet més acces­si­ble i difícil de detec­tar.

Donald Trump ha estat objecte de diver­sos hiper­tru­cat­ges. Un dels més recents el mos­trava donant suport a teo­ries cons­pi­ratòries sobre el frau elec­to­ral, men­tre que un altre el va fer aparèixer insul­tant votants d’un dels seus pro­pis mítings. Aquests vídeos, com­par­tits mas­si­va­ment a les xar­xes soci­als, han gene­rat con­fusió entre els seus segui­dors i han des­en­ca­de­nat una res­posta furi­osa de la seva cam­pa­nya. Segons Asso­ci­a­ted Press, els mems i vídeos fal­sos no només pro­ve­nen dels detrac­tors de Trump, ja que els seus segui­dors fan ser­vir IA per gene­rar con­tin­guts virals en què se’l mos­tra com un heroi patriòtic.

Har­ris tam­poc ha estat immune a aquesta nova eina de desin­for­mació. A més de l’àudio fals en què cele­brava la reti­rada de Biden, Har­ris ha estat pro­ta­go­nista d’hiper­tru­cat­ges que la cari­ca­tu­rit­zen com una política radi­cal o que la sexu­a­lit­zen per des­le­gi­ti­mar-la. Aques­tes repre­sen­ta­ci­ons desin­for­men i ali­men­ten nar­ra­ti­ves tòxiques en un moment polític pola­rit­zat.

Els mit­jans con­tra­a­ta­quen

Arran d’aquest feno­men crei­xent, els mit­jans de comu­ni­cació han hagut de pren­dre mesu­res per inten­tar con­tra­res­tar el poder de la IA en la desin­for­mació elec­to­ral. Dia­ris com The New York Times i The Was­hing­ton Post han dedi­cat recur­sos a la detecció d’hiper­tru­cat­ges i han esta­blert equips espe­ci­a­lit­zats en veri­fi­cació de fets que uti­lit­zen tècni­ques avançades per iden­ti­fi­car con­tin­guts mani­pu­lats. El repte és enorme.

Un dels prin­ci­pals pro­ble­mes amb l’hiper­tru­catge és que els algo­ris­mes que ana­lit­zen els patrons de veu i vídeo s’han tor­nat tan sofis­ti­cats que sovint és difícil dis­tin­gir el fals de l’autèntic. “És més el que passa al vol­tant de la veu el que ho delata”, expli­cava Sarah Bar­ring­ton, inves­ti­ga­dora de la Uni­ver­si­tat de Califòrnia en un arti­cle a The Was­hing­ton Post. Pau­ses anor­mals, falta de vari­ació en el to i absència de detalls sub­tils en les pau­ses poden ser indi­cis d’hiper­tru­catge. A la velo­ci­tat amb què millora la tec­no­lo­gia, fins i tot aquests indi­ca­dors són cada cop més difícils de detec­tar.

Les xar­xes soci­als, com Tik­Tok i Ins­ta­gram, inten­ten iden­ti­fi­car i mar­car con­tin­gut fals, però sovint fallen en l’intent. Els detec­tors d’hiper­tru­catge que uti­lit­zen algu­nes pla­ta­for­mes no són infal·libles, i, fins i tot quan es detecta mate­rial mani­pu­lat, arriba a grans audiències abans de ser reti­rat. La lluita con­tra la desin­for­mació és una cursa desi­gual. El pro­blema de la desin­for­mació impul­sada per IA no es limita als EUA. Segons The New York Times, el 2024 haurà estat un any crític a escala glo­bal, amb elec­ci­ons en més de 83 països, inclo­ent-hi grans potències com la Unió Euro­pea, l’Índia i Mèxic. Les cam­pa­nyes elec­to­rals d’arreu del món s’han vist afec­ta­des per la pro­pa­gació de notícies fal­ses i hiper­tru­cat­ges. Rússia i la Xina uti­lit­zen IA per dis­se­mi­nar nar­ra­ti­ves fal­ses que ero­si­o­nen la cre­di­bi­li­tat dels seus opo­nents. Les tècni­ques de mani­pu­lació cre­uen fron­te­res i la desin­for­mació cir­cula a través de xar­xes inter­na­ci­o­nals.

Segons el Bren­nan Cen­ter for Jus­tice, un dels ris­cos més grans és que l’hiper­tru­catge per si mateix ja pro­voca una pèrdua de con­fiança en la infor­mació elec­to­ral. La sim­ple pos­si­bi­li­tat que qual­se­vol peça de con­tin­gut pugui ser falsa fa que la ciu­ta­da­nia tin­gui més difi­cul­tats per creure en la vera­ci­tat de qual­se­vol notícia, fins i tot les reals.

Les cam­pa­nyes de Har­ris i Trump són cons­ci­ents del poder de la IA. Men­tre que l’equip de Har­ris evita l’ús d’hiper­tru­catge i la mani­pu­lació del dis­curs públic, la cam­pa­nya de Trump és més per­me­a­ble a aques­tes eines. L’ús de mems cre­ats per IA per part dels seus segui­dors, que el volen fer aparèixer com un defen­sor de les lli­ber­tats i un líder heroic, forma part d’una estratègia que bar­reja entre­te­ni­ment i mani­pu­lació política.

Segons el Pew Rese­arch Cen­ter, un 57% dels nord-ame­ri­cans expres­sen una gran pre­o­cu­pació pel paper de la IA en la desin­for­mació elec­to­ral. Pla­ta­for­mes digi­tals com X (anti­ga­ment, Twit­ter), pro­pi­e­tat d’Elon Musk, han estat acu­sa­des de no fer prou per con­tro­lar aquests con­tin­guts. Algu­nes de les imat­ges i vídeos més impac­tants de la cam­pa­nya, com un hiper­tru­catge de Har­ris ves­tida de comu­nista, han estat com­par­tits direc­ta­ment pel mateix Musk.

Ministraux pot transformar sectors com la robòtica

Mistral AI ha llançat “”, dues noves IA franceses dissenyades per funcionar localment en mòbils i portàtils. Els models, Ministral 3B i 8B, ofereixen una gran eficiència i rendiment, amb menys de 10.000 milions de paràmetres, permetent operacions sense connexió a servidors remots. Això obre oportunitats per a aplicacions que requereixen baixa latència i alta privacitat, com ara assistents virtuals i robots autònoms. Amb un disseny adaptat per a contextos complexos, podrien transformar sectors com la robòtica, gràcies a la seva alta eficiència computacional i rapidesa en la presa de decisions.

Música personalitzada a partir de vídeos i fotos

ha presentat Suno Scenes, una eina innovadora d’IA que genera música personalitzada a partir de vídeos i fotografies. Dirigida a usuaris sense coneixements musicals, l’eina ja permet crear bandes sonores per a records personals o projectes creatius. L’aplicació analitza imatges i vídeos per generar una banda sonora única, i es pot utilitzar en dispositius iOS als Estats Units, amb plans d’expansió a altres països. Suno treballa en noves funcionalitats, com ara la creació d’efectes sonors basats en imatges. Amb aquesta innovació, volen democratitzar la creació musical i oferir més opcions per personalitzar cançons.

Breus

Galtea, ‘spin-off’ del BSC per a IA generativa

El Barcelona Supercomputing Center ha llançat Galtea, una empresa emergent centrada en la implementació segura de la IA generativa per a empreses. Ofereix eines tecnològiques que garanteixen precisió, seguretat i compliment de les normatives europees, ajudant les empreses a adoptar aquesta tecnologia de manera responsable. Col·labora amb diversos sectors industrials per millorar la productivitat i la innovació de manera segura.

Meta preveu més acomiadaments i centrar-se en IA

Meta ha anunciat una altra tongada d’acomiadaments, que afecta departaments clau com ara Instagram i Reality Labs. Els ajustos arriben després d’un dels grans acomiadaments l’any passat. L’estratègia respon a la necessitat de redistribuir recursos cap a la IA i altres àrees de creixement, tot i que pot afectar la moral dels empleats que queden.

Repsol millora la productivitat amb IA generativa

Repsol ha aconseguit un estalvi mitjà de dues hores setmanals per empleat gràcies a l’ús de Copilot per a Microsoft 365, segons un estudi. Aquesta eina d’IA generativa ha demostrat un augment de l’eficiència i la qualitat del treball, especialment en àrees com ara operacions i producció, impulsant la seva adopció. A més, els treballadors han destacat una millora en la seva capacitat per resoldre tasques complexes i repetitives amb més rapidesa.

Èxit a Girona de la 17a edició de la Catosfera

La Catosfera, celebrada a Girona, ha conclòs amb més de 700 assistents. En aquesta edició, el debat sobre els riscos de la IA ha estat un dels temes centrals. L’organització ha destacat l’interès creixent pel futur digital i la participació activa del públic en els debats.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.