Clau per emportar
- Una empresa de programari està recopilant informació de les xarxes socials per crear perfils que es poden utilitzar per identificar persones que representen riscos per a la seguretat.
- Voyager Labs ha tancat un acord important amb una agència del govern japonès.
- Però els experts adverteixen que el programari de predicció d'IA es pot enganyar.
La teva informació en línia es pot utilitzar per predir si pots cometre un delicte.
S'ha informat que Voyager Labs està recopilant informació de les xarxes socials per crear perfils que es poden utilitzar per identificar persones que representen riscos per a la seguretat. Forma part d'un esforç creixent per utilitzar la intel·ligència artificial (IA) per investigar possibles delinqüents. Però alguns experts diuen que el moviment està ple de problemes potencials.
"És molt difícil predir el comportament humà", va dir Matthew Carr, investigador de seguretat d'Atumcell Group, a Lifewire en una entrevista per correu electrònic. "Ni tan sols som capaços de predir el nostre propi comportament, i molt menys el d'algú més. Crec que és possible que la IA es pugui utilitzar en el futur amb aquesta finalitat, però estem molt lluny de poder-ho fer actualment."
Creació de perfils
Tal com va informar recentment The Guardian, el departament de policia de Los Angeles va estudiar l'ús del programari de predicció de crims de Voyager Lab. La companyia també va anunciar que havia tancat un acord important amb una agència del govern japonès.
L'acord japonès proporciona a l'agència governamental una plataforma d'investigació basada en IA que analitza quantitats massives d'informació de qualsevol font, incloses dades obertes i profundes.
"Estic content que estem col·laborant en la lluita contra el terrorisme i el crim", va dir Divya Khangarot, director general APAC de Voyager Labs, en el comunicat de premsa. "Utilitzant les solucions d'intel·ligència d'avantguarda de Voyager Lab, els nostres clients obtenen capacitats úniques per identificar i interrompre de manera proactiva les amenaces potencials. Aportem capes addicionals d'informació profunda d'investigació mitjançant una combinació d'IA, aprenentatge automàtic i OSINT per descobrir rastres ocults, informació infringida, i mals actors."
No tan intel·ligent?
Però en una entrevista per correu electrònic, Matt Heisie, el cofundador de Ferret.ai, que també utilitza IA per predir els delinqüents, va posar en dubte algunes de les afirmacions de Voyager Labs.
"Hi ha un vincle tan clar entre, per exemple, un historial de detenció i un futur comportament delictiu, com hi ha un punt negre en una prova i el desenvolupament d'un tumor?" Ell va dir. "Penseu en totes les possibles confusions que es van produir en aquella detenció: en quin barri vivia la persona, la quantitat i la qualitat, fins i tot els biaixos, de la policia en aquesta zona. L'edat de la persona, el seu gènere, el seu aspecte físic, tot això té impactes interseccionats en la probabilitat que aquesta persona tingui un historial d'arrest, completament separat de la seva propensió real a cometre el crim que estem intentant predir.".
És més probable que els acusats amb millors advocats puguin evitar que els registres estiguin disponibles públicament, va dir Heisie. Algunes jurisdiccions limiten la publicació de fotografies policials o registres d'arrest per protegir l'acusat.
"L'ordinador aprendrà a partir de les dades que li proporcioneu i incorporarà tots els biaixos que van entrar en la recollida de dades…"
"Tot això afegeix més biaix als algorismes", va afegir. "L'ordinador aprendrà a partir de les dades que li doneu i incorporarà tots els biaixos que van implicar la recollida de dades en l'aprenentatge i la interpretació."
Hi ha hagut diversos intents de crear delictes que prediuen IA, i amb resultats sovint escandalosos, va dir Heisie.
COMPAS, un algorisme que utilitzen les forces de l'ordre per predir la reiteració, s'utilitza sovint per determinar la sentència i la fiança. S'ha enfrontat a un escàndol que es remunta al 2016 per prejudicis racials, predint que els acusats negres presentaven un risc de reincidència més gran del que en realitat, i al revés per als acusats blancs..
Més de 1.000 tecnòlegs i estudiosos, inclosos acadèmics i experts en intel·ligència artificial de Harvard, MIT, Google i Microsoft, es van pronunciar el 2020 contra un article que afirmava que els investigadors havien desenvolupat un algorisme que podria predir la criminalitat basat únicament en un la cara de la persona, dient que la publicació d'aquests estudis reforça el biaix racial preexistent al sistema de justícia penal, va assenyalar Heisie.
La Xina és el mercat més gran i de més ràpid creixement per a aquest tipus de tecnologia, principalment a causa de l'accés generalitzat a dades privades, amb més de 200 milions de càmeres de vigilància i investigacions avançades d'IA centrades en aquest tema durant molts anys, va dir Heisie.. Ara s'utilitzen sistemes com ara el núvol de policia de CloudWalk per predir i fer un seguiment dels delinqüents i identificar les forces de l'ordre.
"No obstant això, també s'informa de biaixos substancials", va dir Heisie.
Heisie va afegir que la seva empresa cura acuradament les dades que entren i no utilitza fotografies policials ni registres d'arrest, "centrant-se en canvi en criteris més objectius".
"La nostra intel·ligència artificial va aprendre de les dades seleccionades, però el que és més important, també aprèn de persones, que elles mateixes analitzen, gestionen i avaluen els registres, i ens parlen de les seves interaccions amb els altres", va afegir. "També mantenim la transparència total i l'accés públic i gratuït a la nostra aplicació (tan aviat com puguem deixar-les en versió beta) i donem la benvinguda a conèixer els nostres processos i procediments."