Clau per emportar
- Twitter espera posar remei al que els usuaris anomenen biaix racial al seu programari de previsualització d'imatges.
- La crida del gegant tecnològic podria ser el càlcul cultural que la indústria necessita per abordar els problemes de diversitat.
- La manca de diversitat de la tecnologia està perjudicant l'eficàcia dels seus avenços tecnològics.
Twitter està disposat a iniciar una investigació sobre el seu algorisme de retall d'imatges després que esdevingués un tema tendència que va provocar una conversa més gran sobre qüestions de diversitat a la indústria tecnològica.
El gigante de les xarxes socials va ser titular després que els usuaris van descobrir un aparent biaix racial en el seu algorisme de previsualització d'imatges. El descobriment es va produir després que l'usuari de Twitter Colin Madland utilitzés la plataforma per denunciar el fracàs de Zoom per reconèixer els seus col·legues negres que utilitzaven la tecnologia de la pantalla verda, però en una gran demostració d'ironia, va trobar que l'algoritme de retall d'imatges de Twitter es comportava de la mateixa manera i va donar prioritat a les cares negres.
Per descomptat, és un gran problema per a qualsevol minoria, però crec que també hi ha un problema molt més ampli.
Altres usuaris es van incorporar a la tendència provocant una sèrie de tuits virals que mostraven que l'algoritme prioritzava constantment les cares blanques i de pell més clara, des de persones fins a personatges de dibuixos animats i fins i tot gossos. Aquest fracàs és indicatiu d'un moviment cultural més ampli a la indústria tecnològica que ha deixat de tenir en compte els grups minoritaris, que s'ha desbordat a l'aspecte tècnic.
"Fa que les minories se sentin terribles, com si no fossin importants, i es pot utilitzar per a altres coses que poden causar danys més greus en el futur", Erik Learned-Miller, professor d'informàtica a la Universitat. de Massachusetts, va dir en una entrevista telefònica."Un cop hàgiu decidit per a què es pot utilitzar un programari i tots els danys que es poden produir, comencem a parlar de les maneres de minimitzar la possibilitat que això passi."
Canary a la línia de temps
Twitter utilitza xarxes neuronals per retallar automàticament les imatges incrustades als tuits. Se suposa que l'algoritme ha de detectar cares per previsualitzar, però sembla que té un biaix en blanc notable. La portaveu de l'empresa, Liz Kelley, va tuitejar una resposta a totes les preocupacions.
Kelley va tuitejar: "gràcies a tots els que van plantejar això. vam provar el biaix abans d'enviar el model i no vam trobar proves de biaix racial o de gènere a les nostres proves, però està clar que tenim més anàlisis per fer. Obrirem el nostre treball perquè altres puguin revisar-los i reproduir-los."
Coautor del llibre blanc "Tecnologies de reconeixement facial a la natura: una crida a una oficina federal", Learned-Miller és un investigador líder sobre els excessos del programari d'aprenentatge d'IA basat en la cara. Fa anys que parla del possible impacte negatiu del programari d'aprenentatge d'imatges i ha parlat de la importància de crear una realitat on aquests biaixos es mitiguin al màxim.
Molts algorismes per a la tecnologia de reconeixement facial utilitzen conjunts de referència per a dades, sovint coneguts com a conjunts d'entrenament, que són una col·lecció d'imatges que s'utilitzen per afinar el comportament del programari d'aprenentatge d'imatges. Finalment, permet que la IA reconegui fàcilment una àmplia gamma de cares. No obstant això, aquests conjunts de referència poden mancar d'un conjunt divers, la qual cosa comporta problemes com els experimentats per l'equip de Twitter.
"Per descomptat, és un problema enorme per a qualsevol minoria, però crec que també hi ha un problema molt més ampli", va dir Learned-Miller. "Es relaciona amb la manca de diversitat en el sector tecnològic i la necessitat d'una força reguladora centralitzada per mostrar els usos adequats d'aquest tipus de programari potent propens a un ús indegut i abusiu."
La tecnologia manca de diversitat
Twitter pot ser l'última empresa tecnològica del bloc de picar, però això està lluny de ser un problema nou. El camp de la tecnologia continua sent un camp predominantment blanc, dominat perpètuament per homes i els investigadors han descobert que la manca de diversitat provoca una rèplica dels desequilibris històrics sistèmics en el programari desenvolupat.
En un informe del 2019 de l'AI Now Institute de la Universitat de Nova York, els investigadors van trobar que els negres representen menys del 6% de la força de treball de les principals empreses tecnològiques del país. De la mateixa manera, les dones només representen el 26 per cent dels treballadors del camp, una estadística inferior a la seva proporció el 1960.
Fa que les minories se sentin terribles, com si no fossin importants, i es pot utilitzar per a altres coses que poden causar danys més greus.
A la superfície, aquests problemes de representació poden semblar mundans, però a la pràctica, el dany causat pot ser profund. Els investigadors de l'informe AI Now Institute suggereixen que això es relaciona causalment amb problemes amb el programari que sovint no té en compte les poblacions no blanques i no masculines. Tant si es tracta dels dispensadors de sabó d'infrarojos que no detecten la pell més fosca o que el programari d'IA d'Amazon no diferencia les cares femenines de les dels seus homòlegs masculins, la manca d'abordar la diversitat a la indústria tecnològica comporta un fracàs de la tecnologia per fer front a un món divers.
"Hi ha molta gent que no ha pensat en els problemes i no s'adonen realment de com aquestes coses poden causar danys i de com d'importants són aquests danys", va suggerir Learned-Miller sobre l'aprenentatge d'imatges d'IA. "Tant de bo, aquest nombre de persones s'està reduint!"