Clau per emportar
- Els programes d'intel·ligència artificial com Cogito intenten ensenyar als humans l'empatia en el tracte amb els clients.
- Els experts no estan d'acord sobre si és possible que una màquina ensenyi empatia a la gent o si simplement es tracta de trobar punts de dades.
- Alguns experts també estan preocupats perquè ensenyar l'empatia per IA pugui robar aquesta emoció a la humanitat.
Imagina que estàs treballant en un centre de trucades i un client truca. Contestes, i de seguida, les coses comencen a anar malament. El client està enfadat i les tensions augmenten.
Comenceu a dir coses de les quals més tard podríeu penedir-vos. De sobte, apareix un missatge a la pantalla de l'ordinador. "Indicació d'empatia: pensa en com se sent el client. Intenta relacionar-te."
No és una persona real que et digui què has de fer. És un missatge de Cogito, un programa d'intel·ligència artificial dissenyat per ajudar els treballadors a empatitzar amb les persones que truquen frustrades i augmentar el rendiment. Cogito és un d'un nombre creixent de programes d'IA que intenten ensenyar empatia als humans.
Aquí hi ha una ironia evident. Els científics humans porten dècades intentant fer ordinadors més reals. Ara, les màquines ens diuen com hem de comportar-nos. Però pot el programari realment ensenyar-nos a ser més empàtics? És un problema que podria tenir implicacions profundes a mesura que la intel·ligència artificial comenci a impregnar la vida diària.
AI imita el comportament humà
Des d'un punt de vista tècnic, està clar que la IA pot captar pistes sobre com se senten els humans i proporcionar comentaris.
"La IA i els sistemes d'aprenentatge automàtic són molt bons per trobar patrons a les dades", va dir Adam Poliak, becari postdoctoral en informàtica al Barnard College, en una entrevista per correu electrònic.
"Si donem a una IA molts exemples de text empàtic, la IA pot descobrir patrons i indicis que evoquin o demostrin empatia."
La IA es pot programar per trencar alguns dels comportaments humans que acompanyen l'empatia i recordar-los que els realitzin, però això no és ensenyar empatia.
La IA que analitza les reaccions humanes pot ajudar a superar la bretxa creixent entre les persones mentre ens comuniquem digitalment, va dir Bret Greenstein, expert en IA de Cognizant Digital Business, en una entrevista per correu electrònic.
"Durant l'últim any, el temps real, el vídeo, la veu i la missatgeria van créixer més ràpidament del que ningú s'hauria pogut imaginar, i amb això van sorgir grans reptes per crear relacions realment empàtiques sense passar temps físic amb la gent", va dir. afegit.
AI pot ajudar a analitzar i avaluar característiques com el to i l'emoció en la parla, va dir Greenstein. "Això pot ajudar a la persona que rep comunicacions a entendre millor què es volia dir, i ajuda a la persona a 'parlar' mostrant com es podrien interpretar els missatges", va afegir..
Mentre les empreses s'afanyen a treure profit del programari de formació d'IA com Cogito, la qüestió de si la IA pot ensenyar empatia als humans continua oberta. I la resposta pot tenir tant a veure amb la filosofia com amb la tecnologia.
Ilia Delio és una teòloga de la Universitat de Villanova el treball de la qual se centra en la intersecció de la fe i la ciència. Ella creu que la IA pot ensenyar empatia.
Delio va assenyalar que un equip del MIT ha construït robots que poden imitar emocions humanes com ara la felicitat, la tristesa i la compassió. "Mentre les emocions robòtiques estan programades, els robots poden interactuar amb els humans i així establir o reforçar patrons neuronals", va dir.
Una màquina pot entendre l'empatia?
Els experts defineixen almenys tres formes d'empatia, totes impliquen la capacitat d'entendre i relacionar-se amb una altra persona, va dir Karla Erickson, sociòloga del Grinnell College d'Iowa i autora del proper llibre, Messy Humans: A Sociology of. Relacions humans/màquina, que explora les nostres relacions amb la tecnologia.
"Relacionar no és una cosa que l'IA pugui fer, i és la base de l'empatia", va dir Erickson en una entrevista per correu electrònic.
"La IA es pot programar per trencar alguns dels comportaments humans que acompanyen l'empatia i recordar-los que els realitzin, però això no és ensenyar empatia. Relacionar-se, especialment en termes d'empatia, requeriria que l'oient tingués el context necessari per relacionar-se amb això, vull dir que la "vida" d'una IA no inclou la pèrdua, l'anhel, l'esperança, el dolor o la mort."
No obstant això, els experts s'enfronten sobre si la IA ens pot ensenyar a empatitzar. Part del problema és que no tothom està d'acord en què vol dir ni tan sols "empatia" o "IA". El terme intel·ligència artificial es parla molt, però actualment no és el tipus d'intel·ligència que pensem humana.
Aquest és un treball d'enginyeria pura, i no em faig cap il·lusió que la IA en qüestió tingui emocions o entén realment emocions.
"Els "indicis d'empatia" no tenen res a veure amb l'empatia", va dir Michael Spezio, professor de psicologia, neurociència i ciència de dades a Scripps College, en una entrevista per correu electrònic.
"Són indicis de veus que els avaluadors humans han classificat com a veus de persones que estan irritades/molestas. Per tant, només s'utilitza l'experiència humana en un model matemàtic i després afirma que el model, basat en l'experiència humana, és intel·ligent. Els enfocaments limitats d'aprenentatge automàtic com aquest sovint s'expulsen com a IA sense ser intel·ligents."
A l'Institut Politècnic Rensselaer, el laboratori de Selmer Bringsjord està construint models matemàtics de l'emoció humana. La investigació pretén crear una intel·ligència artificial que pugui puntuar alt en les proves d'intel·ligència emocional i aplicar-les als humans. Però Bringsjord, un expert en IA, diu que qualsevol ensenyament de la IA és inadvertit.
"Però això és un treball d'enginyeria pura, i no em faig cap il·lusió que la IA en qüestió tingui emocions o entengui realment emocions", va dir en una entrevista per correu electrònic.
Què podria sortir malament?
Si bé empreses com Cogito veuen un futur brillant en la formació d'humans en IA, altres observadors són més prudents.
Supportiv, un servei de salut mental en línia, utilitza la intel·ligència artificial per dirigir cada usuari, basant-se en qualsevol pensament que expressi, en temps real, a un grup de suport entre iguals per a un tema específic que es reuneix de manera dinàmica per als usuaris amb problemes similars.
Cada grup té un moderador humà "superpoderós" que manté el xat basat en text segur i sense trolls i pot aparèixer, de nou mitjançant IA, recursos rellevants, recomanacions i referències directament a la conversa del grup. Utilitzant la IA, Supportiv forma els seus moderadors perquè siguin hàbils per detectar la intensitat de les necessitats emocionals.
"L'empatia és un múscul que construïm", va dir Zara Dana, científica de dades de Supportiv, en una entrevista per correu electrònic.
"Si comencem a utilitzar una crossa per caminar, els nostres músculs s'atrofiaran. No puc evitar preguntar-me si un treballador dependent se sentiria segur si el sistema d'IA no està en línia algun dia? És capaç de fer-ho. la feina de manera eficaç? Quins són els efectes a llarg termini sobre els treballadors? Com navegarien en situacions socials complexes on l'IA està absent?"
Tot i que l'ús de la IA per ensenyar empatia funciona, què passa quan comencem a confiar massa en la IA per entrenar les emocions? Un possible inconvenient és que els humans poden vincular-se més als robots que a altres persones perquè els robots no poden triar el seu programa, va assenyalar Delio.
"La capacitat humana de lliure albir situa l'agència humana en una posició més ambigua", va dir Delio. "Una persona pot ser compassiu un dia i despietada l' altre; un robot es mantindrà constantment compassiu tret que estigui entrenat per fer el contrari."
Hi ha moltes coses que podrien sortir malament si la IA ensenyés als humans a comportar-se com a persones, diuen els experts.
Hem evolucionat per ser animals socials i la nostra empatia és fonamental per a la nostra capacitat de connectar-nos amb els altres i preocupar-nos pels col·lectius als quals pertanyem.
"Sense supervisió humana, l'estudiant podria aprendre alguna cosa absolutament boig", va dir Bringsjord.
"El to i el to de veu són simples correlacions de comportament, sense cap contingut. Molts llegeixen la meva veu mentre ensenya a l'aula… com a indicació que estic molest, mentre que en realitat, jo' Només sóc apassionat i necessito el menys empatia."
Si l'entrenament amb intel·ligència artificial dels humans prospera, podem confiar-hi. I això no és necessàriament bo.
"Aquesta formació devalua les habilitats humanes, que són considerables, i desplaça l'atenció cap a la IA com si fossin les que tenen experiència", va dir Erickson."Hem evolucionat per ser animals socials i la nostra empatia és fonamental per a la nostra capacitat de connectar-nos amb els altres i preocupar-nos pels col·lectius als quals pertanyem."