Per què el programari de lectura emocional podria violar la vostra privadesa

Taula de continguts:

Per què el programari de lectura emocional podria violar la vostra privadesa
Per què el programari de lectura emocional podria violar la vostra privadesa
Anonim

Clau per emportar

  • S'ha informat que Zoom va dir que utilitzaria IA per avaluar el sentiment o el nivell de participació d'un usuari.
  • Els grups de drets humans demanen a Zoom que replanteï el seu pla per problemes de privadesa i seguretat de les dades.
  • Algunes empreses també utilitzen programari de detecció d'emocions durant les entrevistes per avaluar si l'usuari està prestant atenció.
Image
Image

L'ús creixent de la intel·ligència artificial (IA) per controlar les emocions humanes està generant problemes de privadesa.

Les organitzacions de drets humans demanen a Zoom que alenti el seu pla d'introduir IA d'anàlisi d'emocions al seu programari de videoconferència. S'ha informat que l'empresa ha dit que utilitzarà IA per avaluar el sentiment o el nivell de compromís d'un usuari.

"Els experts admeten que l'anàlisi de les emocions no funciona", va escriure el consorci de grups de drets humans, inclosa l'ACLU, en una carta a Zoom. "Les expressions facials sovint es desconnecten de les emocions que hi ha a sota, i la investigació ha descobert que ni tan sols els humans poden llegir o mesurar amb precisió les emocions dels altres de vegades. El desenvolupament d'aquesta eina afegeix credibilitat a la pseudociència i posa en joc la vostra reputació."

Zoom no va respondre immediatament a una sol·licitud de comentari de Lifewire.

Conservar les teves emocions

Segons l'article del Protocol, el sistema de monitorització de Zoom anomenat Q for Sales comprovaria la relació de temps de conversa dels usuaris, el retard del temps de resposta i els canvis freqüents d' altaveu per fer un seguiment de la implicació de la persona. Zoom utilitzaria aquestes dades per assignar puntuacions entre zero i 100, amb puntuacions més altes que indiquen més implicació o sentiment.

Els grups de drets humans afirmen que el programari podria discriminar les persones amb discapacitat o determinades ètnies en assumir que tothom fa servir les mateixes expressions facials, patrons de veu i llenguatge corporal per comunicar-se. Els grups també suggereixen que el programari podria suposar un risc per a la seguretat de les dades.

Image
Image

"La recollida de dades personals profundament podria convertir qualsevol entitat que implementi aquesta tecnologia en un objectiu per a esquivar autoritats governamentals i pirates informàtics maliciosos", segons la carta.

Julia Stoyanovich, professora d'informàtica i enginyeria a la Universitat de Nova York, va dir a Lifewire en una entrevista per correu electrònic que és escèptica sobre les afirmacions darrere de la detecció d'emocions.

"No veig com aquesta tecnologia pot funcionar: l'expressió emocional de la gent és molt individual, molt depenent culturalment i molt específica del context", va dir Stoyanovich."Però, potser encara més important, no veig per què voldríem que aquestes eines funcionin. En altres paraules, tindríem més problemes si funcionessin bé. Però potser fins i tot abans de pensar en els riscos, hauríem de pregunta: quins són els beneficis potencials d'aquesta tecnologia?"

Zoom no és l'única empresa que utilitza programari de detecció d'emocions. Theo Wills, el director sènior de privadesa de Kuma LLC, una empresa de consultoria de privadesa i seguretat, va dir a Lifewire per correu electrònic que s'utilitza programari per detectar emocions durant les entrevistes per avaluar si l'usuari està prestant atenció. També s'està provant a la indústria del transport per controlar si els conductors semblen somnolents, a plataformes de vídeo per mesurar l'interès i adaptar recomanacions a mida, i en tutorials educatius per determinar si un mètode d'ensenyament en particular és atractiu.

Wills va afirmar que la controvèrsia al voltant del programari de control d'emocions és més una qüestió d'ètica de dades que de privadesa. Va dir que es tracta del sistema que pren decisions del món real basades en intuïcions.

"Amb aquesta tecnologia, ara estàs assumint el motiu pel qual tinc una expressió particular a la cara, però l'impuls que hi ha darrere d'una expressió varia molt a causa de coses com l'educació social o cultural, els comportaments familiars, les experiències passades o el nerviosisme. en aquest moment", va afegir Wills. "Basar l'algoritme en una hipòtesi és intrínsecament defectuós i potencialment discriminatori. Moltes poblacions no estan representades a la població en què es basen els algorismes i s'ha de prioritzar la representació adequada abans d'utilitzar-la."

Consideracions pràctiques

Els problemes plantejats pel programari de seguiment d'emocions poden ser tant pràctics com teòrics. Matt Heisie, el cofundador de Ferret.ai, una aplicació impulsada per IA que proporciona intel·ligència de relacions, va dir a Lifewire en un correu electrònic que els usuaris han de preguntar on es fa l'anàlisi de les cares i quines dades s'emmagatzemen. L'estudi es fa en enregistraments de trucades, es processen al núvol o al dispositiu local?

A més, Heisie va preguntar, a mesura que l'algoritme aprèn, quines dades recopila sobre la cara o els moviments d'una persona que es podrien desenganxar de l'algorisme i utilitzar-los per recrear la biometria d'algú? L'empresa emmagatzema instantànies per verificar o validar els aprenentatges de l'algoritme i s'informa a l'usuari d'aquestes noves dades derivades o imatges emmagatzemades que es poden recopilar de les seves trucades?

"Tots aquests són problemes que moltes empreses han resolt, però també hi ha empreses que han estat sacsejades per l'escàndol quan resulta que no ho han fet correctament", va dir Heisie. "Facebook és el cas més significatiu d'una empresa que va revertir la seva plataforma de reconeixement facial per preocupacions sobre la privadesa dels usuaris. L'empresa matriu Meta ara està retirant funcions de RA d'Instagram en algunes jurisdiccions com Illinois i Texas per les lleis de privadesa que envolten les dades biomètriques."

Recomanat: