Clau per emportar
- El biaix algorítmic és perjudicial per als adolescents que passen molt de temps a Internet, diuen els experts.
- Els usuaris de Twitter han trobat recentment un problema en què es van eliminar cares negres en favor de les blanques.
- Els cervells en desenvolupament dels adolescents poden ser especialment susceptibles als efectes perjudicials del biaix algorítmic, diuen els investigadors.
El prejudici incorporat a algunes tecnologies, conegut com a biaix algorítmic, pot ser perjudicial per a molts grups, però els experts diuen que és especialment perjudicial per als adolescents.
El biaix algorítmic, quan els sistemes informàtics mostren resultats perjudicials, és un problema creixent. Els usuaris de Twitter van trobar recentment un exemple de biaix a la plataforma quan un algorisme de detecció d'imatges que retallava les fotos eliminava les cares negres en favor de les blanques. L'empresa es va disculpar pel problema, però encara no ha publicat cap solució. És un exemple del biaix que pateixen els adolescents quan es connecten a Internet, cosa que fan més que qualsevol altre grup d'edat, diuen els experts.
"La majoria dels adolescents no saben que les empreses de xarxes socials les tenen per promocionar contingut específic que creuen que els agradarà als usuaris [per tal] que es quedin el màxim de temps possible a la plataforma", va dir el Dr. Mai- Ly Nguyen Steers, professora adjunta a l'Escola d'Infermeria de la Universitat de Duquesne que estudia l'ús de les xarxes socials entre adolescents/estudiants universitaris, va dir en una entrevista per correu electrònic.
"Fins i tot si hi ha un cert nivell de consciència sobre l'algorisme, l'efecte de no rebre prou m'agrada i comentaris segueix sent poderós i pot afectar l'autoestima dels adolescents", va afegir Steers.
Desenvolupament del cervell
El biaix algorítmic pot afectar els adolescents de manera imprevista, ja que el seu còrtex prefrontal encara s'està desenvolupant, va explicar Mikaela Pisani, científica de dades en cap de Rootstrap, en una entrevista per correu electrònic.
L'efecte de no rebre prou m'agrada i comentaris continua sent poderós i pot afectar l'autoestima dels adolescents.
"Els adolescents són especialment vulnerables al fenomen de la 'Fàbrica Social', on els algorismes creen grups socials a les plataformes en línia, provocant ansietat i depressió si no es compleixen les necessitats d'aprovació social de l'adolescent", va dir Pisani. "Els algorismes es simplifiquen basant-se en dades imperfectes anteriors, que condueixen a una sobrerepresentació dels estereotips a costa d'enfocaments més matisats per a la formació d'identitats.
"Des d'un punt de vista més ampli, també ens hem de qüestionar, com a societat, si volem algorismes que modelin els viatges dels nostres adolescents a l'edat adulta, i fins i tot aquest sistema dóna suport en lloc de sufocar el creixement personal individual?"
A causa d'aquests problemes, hi ha una necessitat creixent de tenir en compte els adolescents a l'hora de dissenyar algorismes, diuen els experts.
"A partir de les aportacions d'especialistes en desenvolupament, científics de dades i defensors de la joventut, les polítiques del segle XXI sobre la privadesa de dades i el disseny algorítmic també es podrien construir tenint en compte les necessitats particulars dels adolescents", Avriel Epps-Darling, doctora. estudiant a Harvard, va escriure recentment. "Si, en canvi, continuem minimitzant o ignorant les maneres en què els adolescents són vulnerables al racisme algorítmic, és probable que els danys repercutin a través de les generacions futures."
Combatre els prejudicis
Fins que no hi hagi una solució, alguns investigadors estan intentant trobar maneres de reduir el dany causat als joves per algorismes esbiaixats.
"Les intervencions s'han centrat a fer que els adolescents reconeguin que els seus patrons de xarxes socials tenen un impacte negatiu en la seva salut mental i intenten elaborar estratègies per mitigar-ho (p. ex., un ús reduït de les xarxes socials)," va dir Steers..
"Alguns dels estudiants universitaris que hem entrevistat han indicat que se senten obligats a generar contingut per seguir sent "rellevant", encara que no vulguin sortir o publicar", va continuar. "No obstant això, senten que necessiten generar contingut per mantenir les seves connexions amb els seus seguidors o amics."
La resposta definitiva podria ser eliminar el biaix humà dels ordinadors. Però com que els programadors només són humans, aquest és un repte difícil, diuen els experts.
Una possible solució és desenvolupar ordinadors descentralitzats i programats per oblidar les coses que han après, diu John Suit, director de tecnologia de l'empresa de robòtica KODA.
"A través d'una xarxa descentralitzada, les dades i l'anàlisi d'aquestes dades s'estan compilant i analitzant des de diversos punts", va dir Suit en una entrevista per correu electrònic. "Les dades s'estan recopilant i processant no des d'un sol processament mental d'IA dins dels límits del seu algorisme, sinó de centenars o fins i tot de milers.
"A mesura que es recullen i s'analitzen aquestes dades, s'obliden les "conclusions" antigues o les dades superflues. Mitjançant aquest sistema, un algorisme que podria haver començat amb un biaix eventualment corregirà i substituirà aquest biaix si es demostra que és incorrecte."
Tot i que el biaix pot ser un problema antic, pot haver-hi maneres de combatre'l, almenys en línia. Dissenyar ordinadors que eliminin els nostres prejudicis és el primer pas.