Raça humana
Intel·ligència contaminada
És un trepant o una escombra? Què veuen els algoritmes de reconeixement d’imatges quan miren, quan ens miren? En realitat actuen segons el patró après dels programadors humans i del conjunt de dades amb què es configuren, de manera que la seva interpretació no esdevé necessàriament ni neutral, ni fiable, ni lliure de prejudicis, com apuntàvem en l’article d’ahir. S’ha publicat una molt aclaridora i exhaustiva anàlisi realitzada pel laboratori Bikolabs sobre les percepcions distorsionades que s’infiltren en la intel·ligència artificial, en la qual administracions, empreses i ciutadania anem confiant cada vegada més la nostra presa de decisions. Alguns resultats de l’experiment: dues persones de la mateixa complexió i vestides igual, una d’elles amb trets facials associats al sexe masculí i l’altra, al femení, amb una mà aguanten un clau a la paret i amb l’altra, un martell. Com s’identifica l’objecte? Correctament en el cas d’ell; com un assecador de cabell en el cas d’ella. Ara duen un trepant i el sistema només el reconeix si l’agafa l’home; ara una escombra i només la detecta si és la dona qui l’ensenya. Dues fotos del mateix noi, en una té un pal de fregar, en l’altra, no; es demana la descripció de la roba (que és la mateixa òbviament) i la resposta és: “Vestit de dona blau i negre” i “polo d’home de ratlles blaves i negres”. Què ens pensàvem? Que l’algoritme no entén de rols? I si els intentem compartir es despista, que el pal de fregar és cosa de dones! Una intel·ligència contaminada d’estereotips discriminatoris? No, gràcies; cal revisar l’entrenament!