Ciència

Sutskever i l’obsessió per una IA segura

El cofundador d’OpenAI trenca amb Sam Altman i crea la seva empresa de seguretat de superintel·ligència

Ilya Sutske­ver, un dels noms més pro­mi­nents en el camp de la intel·ligència arti­fi­cial, ha fet un nou pas enda­vant en la seva car­rera fun­dant Safe Superin­te­lli­gence, una empresa dedi­cada a desen­vo­lu­par superin­tel·ligència segura. La tra­jectòria de Sutske­ver és impres­si­o­nant. Com a cofun­da­dor d’Ope­nAI el 2015, va tenir un paper cru­cial en el desen­vo­lu­pa­ment de tec­no­lo­gies revo­lu­cionàries com ChatGPT. Tan­ma­teix, la seva estada a Ope­nAI no va estar exempta de con­flic­tes. El novem­bre del 2023, Sutske­ver va ser un dels mem­bres de la junta que van votar per aco­mi­a­dar el CEO Sam Alt­man, cosa que va des­en­ca­de­nar una crisi interna. Alt­man va ser res­tituït al cap d’una set­mana, fet que va por­tar Sutske­ver a dei­xar la junta d’Ope­nAI i, final­ment, aban­do­nar l’empresa el maig del 2024.

En una entre­vista a Blo­om­berg, Sutske­ver va expli­car que la seva decisió de crear Safe Superin­te­lli­gence es basa en la seva con­vicció que la segu­re­tat de la IA és fona­men­tal. “Per segura, ens refe­rim a la segu­re­tat en el sen­tit de la segu­re­tat nuclear, no només en ter­mes de con­fiança i segu­re­tat”, va dir. Aquesta nova empresa té com a objec­tiu prin­ci­pal desen­vo­lu­par una superin­tel·ligència que no per­ju­di­qui la huma­ni­tat a gran escala.

Safe Superin­te­lli­gence compta amb la col·labo­ració de Daniel Gross, antic soci de Y Com­bi­na­tor, i Daniel Levy, exen­gi­nyer d’Ope­nAI. Amb ofi­ci­nes a Palo Alto i Tel Aviv, pretén atraure inver­si­ons per asso­lir el seu ambiciós objec­tiu de crear una AGI (intel·ligència arti­fi­cial gene­ral) segura.

El con­flicte amb Alt­man a Ope­nAI va sor­gir prin­ci­pal­ment per diferències en la visió sobre la velo­ci­tat i la segu­re­tat en el desen­vo­lu­pa­ment de la IA. Men­tre que Alt­man advo­cava per una publi­cació ràpida dels models, Sutske­ver era més cau­telós, pri­o­rit­zant la segu­re­tat.

Safe Superin­te­lli­gence ha anun­ciat plans per desen­vo­lu­par una superin­tel·ligència que tin­gui la capa­ci­tat de bene­fi­ciar la huma­ni­tat sense cau­sar danys. Aquesta ini­ci­a­tiva repre­senta un des­a­fi­a­ment sig­ni­fi­ca­tiu, però Sutske­ver està con­vençut que és pos­si­ble acon­se­guir-ho amb els recur­sos i el suport ade­quats.

La influència de Sutske­ver en la IA és indis­cu­ti­ble. El seu focus en la segu­re­tat nuclear de la superin­tel·ligència des­taca la seva pre­o­cu­pació pels pos­si­bles ris­cos d’una IA des­con­tro­lada.

Deixeble de Geoffrey Hinton
Nascut a Nijni Nóvgorod (Rússia) el 1985, Sutskever va emigrar amb la seva família a Israel a l’edat de 5 anys i posteriorment es va establir al Canadà. Allà va completar la seva educació acadèmica a la Universitat de Toronto, on es va doctorar en ciències de la computació sota la supervisió de Geoffrey Hinton, un dels pioners de l’aprenentatge profund (‘deep learning’) i mestre que el va marcar.
Superalineació
Després d’abandonar Google el 2015, Sutskever va cofundar OpenAI amb la idea de garantir que la IA avancés de manera segura i beneficiosa per a la humanitat. La seva visió es va reflectir en el projecte Superalignment, que pretenia resoldre el problema de l’alineació de superintel·ligències en un termini de 4 anys.


Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.
[X]

Aquest és el darrer article gratuït dels 5 d'aquest mes

Ja ets subscriptor?

Fes-te subscriptor per només 48€ per un any (4 €/mes)

Compra un passi per només 1€ al dia