Per què el nou programari de creació de perfils planteja problemes de privadesa

Taula de continguts:

Per què el nou programari de creació de perfils planteja problemes de privadesa
Per què el nou programari de creació de perfils planteja problemes de privadesa
Anonim

Clau per emportar

  • El programari que utilitza la intel·ligència artificial per perfilar les persones està generant problemes de privadesa.
  • Cryfe combina tècniques d'anàlisi del comportament amb intel·ligència artificial.
  • Recentment, l'empresa xinesa Alibaba s'ha enfrontat a crítiques després d'haver dit que el seu programari podria detectar els uigures i altres minories ètniques.
Image
Image

El nou programari impulsat per intel·ligència artificial que està pensat perquè els empresaris facin el perfil dels seus empleats està generant problemes de privadesa.

Una nova plataforma de programari, anomenada Cryfe, combina tècniques d'anàlisi del comportament amb intel·ligència artificial. El desenvolupador afirma que mitjançant l'anàlisi de pistes minúscules, el programari pot revelar les intencions de la gent durant les entrevistes. Però alguns observadors diuen que Cryfe i altres tipus de programari que analitzen el comportament poden envair la privadesa.

"Les empreses depenen cada cop més de la IA per a la creació de perfils", va dir l'expert en IA Vaclav Vincale en una entrevista per correu electrònic. "Però fins i tot els humans que codifiquen aquests algorismes, i molt menys una persona d'atenció al client amb qui contacteu per telèfon, no podrien dir-vos per què fan cap recomanació".

Més que paraules

Cryfe va ser desenvolupat per una empresa suïssa els empleats de la qual van ser entrenats per l'FBI en tècniques de creació de perfils. "Cryfe, en tota comunicació interpersonal, no només escolta les paraules, sinó que identifica altres senyals emesos per l'ésser humà com les emocions, les microexpressions i tots els gestos", va dir Caroline Matteucci, fundadora de Cryfe, en una entrevista per correu electrònic.

"Durant el reclutament, per exemple, això ens permet anar a buscar la personalitat real del nostre interlocutor."

Matteucci va dir que la privadesa dels usuaris està protegida perquè l'empresa és transparent sobre com funciona el seu programari. "L'usuari, abans de poder utilitzar la plataforma, ha d'acceptar les condicions generals", va dir.

"Allà s'especifica que l'usuari en cap cas podrà presentar una entrevista per a anàlisi sense haver rebut el consentiment escrit de l'interlocutor."

Cryfe no és l'únic programari basat en IA que pretén analitzar el comportament humà. També hi ha Humantic, que pretén analitzar el comportament del consumidor. "La tecnologia innovadora d'Humantic prediu el comportament de tothom sense que mai hagin de fer una prova de personalitat", segons el lloc web de l'empresa.

Image
Image

L'empresa afirma utilitzar IA per crear perfils psicològics dels sol·licitants basats en les paraules que utilitzen als currículums, cartes de presentació, perfils de LinkedIn i qualsevol altre text que enviïn.

El programari de comportament ha tingut problemes legals en el passat. El 2019, Bloomberg Law va informar que la Comissió d'Igu altat d'Oportunitats d'Ocupació (EEOC) va estudiar casos de suposada discriminació il·legal a causa de decisions relacionades amb recursos humans assistides per algoritmes..

"Tot això s'haurà de resoldre perquè el futur del reclutament és la IA", va dir l'advocat Bradford Newman a Bloomberg.

Alguns observadors posen problemes amb les empreses que utilitzen programari de seguiment del comportament perquè no és prou precís. En una entrevista, Nigel Duffy, líder global d'intel·ligència artificial de l'empresa de serveis professionals EY, va dir a InformationWeek que li preocupa el programari que utilitza proves de xarxes socials i detecció d'afectes.

"Crec que hi ha una literatura realment convincent sobre el potencial de detecció d'afectes, però el meu entendre és que la manera en què s'implementa sovint és força ingènua", va dir.

"La gent està fent inferències que la ciència realment no dóna suport [com ara] decidir que algú és un empleat potencialment bo perquè somriu molt o decideix que a algú li agraden els teus productes perquè somriu molt.."

S'informa que Empreses xineses perfilen minories

El seguiment del comportament també podria tenir propòsits més sinistres, diuen alguns grups de drets humans. A la Xina, el gegant del mercat en línia Alibaba va provocar recentment l'enrenou després d'haver afirmat que el seu programari podria detectar els uigures i altres minories ètniques..

The New York Times va informar que el negoci d'informàtica en núvol de l'empresa tenia programari que escanejava imatges i vídeos.

Però fins i tot els humans que codifiquen aquests algorismes… no podrien dir-vos per què fan cap recomanació determinada.

El Washington Post també va informar recentment que Huawei, una altra empresa tecnològica xinesa, havia provat programari que podia alertar les forces de l'ordre quan les seves càmeres de vigilància detectessin cares uigurs.

Una sol·licitud de patent de 2018 de Huawei va afirmar que "la identificació dels atributs dels vianants és molt important" en la tecnologia de reconeixement facial."Els atributs de l'objecte objectiu poden ser el gènere (masculin, femení), l'edat (com ara adolescents, de mitjana edat, vell) [o] la raça (Han, uigur)," va dir l'aplicació.

Un portaveu de Huawei va dir a CNN Business que la funció d'identificació ètnica "mai hauria d'haver format part de l'aplicació".

L'ús creixent de la intel·ligència artificial per ordenar grans quantitats de dades està obligat a plantejar problemes de privadesa. És possible que mai sabreu qui o què us està analitzant la propera vegada que aneu a una entrevista de feina.

Recomanat: