Clau per emportar
- L'assistent de veu d'Alexa d'Amazon pot copiar una veu amb només un minut d'àudio.
- Podeu demanar a Alexa que llegeixi una història amb la veu d'un pare mort.
- És la mateixa idea que les falsificacions profundes, només s'utilitza per als poders del bé.
L'últim truc d'Amazon Alexa és aprendre a imitar la veu d'un ésser estimat mort, perquè pugui parlar-te des de més enllà de la tomba.
Alexa només necessita un minut d'àudio parlat per imitar de manera convincent una veu. Amazon ho considera una característica reconfortant que us pot posar en contacte amb els vostres éssers estimats, però també podria ser una experiència bastant esgarrifosa. I demostra com de fàcil és crear un àudio fals profund que sigui prou bo per enganyar-nos, fins i tot quan la veu és una que coneixem molt bé.
"Amazon ha entrat definitivament en un territori força únic i estrany amb el seu anunci que Alexa aviat podria aprendre i després utilitzar la veu dels familiars morts aviat", va dir Bill Mann, expert en privadesa de Restore Privacy. Lifewire per correu electrònic. "Per a algunes persones, no és gens esgarrifós. De fet, pot ser bastant commovedor."
Ghost in the Machine
Com a part de la seva conferència anual re:MARS, Amazon mostra la funció en un vídeo breu. En ella, un nen li pregunta a Alexa si l'àvia pot seguir llegint-li "El mag d'Oz", l'obra de domini públic favorita de tots els nens. I és un moment força emotiu. És difícil no sentir emocions humanes quan l'àvia comença a llegir.
"Els éssers humans lluiten amb la mortalitat, especialment a la cultura occidental. Durant segles hem intentat trobar maneres de commemorar els morts, des de màscares mortíferes, fins a mecs de cabells, a fotos antigues i a veure pel·lícules antigues", Andrew Selepak., un professor de xarxes socials a la Universitat de Florida, va dir a Lifewire per correu electrònic. "Deepfakes utilitzen l'última tecnologia per crear una nova màscara mortal d'un ésser estimat mort. Però, depenent de la perspectiva d'un, és esgarrifós o una manera de commemorar i aferrar-se a algú que estimes després de morir?"
Però un memento mori pot ser alhora reconfortant i esgarrifós. L'amic d'un membre de la família ha mort, però encara el pots sentir parlar. No ajuda que Alexa tingui un historial de comportament estrany i, de vegades, terrorífic. El 2018, mentre el columnista d'opinió del NYT Farhad Manjoo s'estava ficant al llit, el seu Amazon Echo "va començar a plorar, com un nen que crida en un somni d'una pel·lícula de terror".
Poc després, Amazon va reconèixer que Alexa de vegades reia en veu alta, que, juntament amb els adolescents i els cellers, és la pel·lícula de terror 101.
Només es pot preguntar com et sentiràs si Alexa fes els mateixos trucs amb la veu de l'àvia.
Deep Fake
L'aparent facilitat amb què Alexa aprèn a imitar una veu ens porta a usos més nefasts de la clonació de veu: falsificacions profundes.
"L'àudio deepfake no és nou, encara que sigui poc entès i poc conegut. La tecnologia fa anys que està disponible per recrear la veu d'un individu amb intel·ligència artificial i aprenentatge profund utilitzant relativament poc àudio real de la persona". diu Selepak. "Aquesta tecnologia també podria ser perillosa i destructiva. Una persona pertorbada podria recrear la veu d'un exnòvio o xicota mort i utilitzar el nou àudio per dir coses odiosos i ferides."
Això és només en el context d'Alexa. Un àudio fals profund podria anar molt més enllà d'això, convèncer la gent que els polítics destacats creuen coses que no creuen, per exemple. Però, d' altra banda, com més ens acostumem a aquestes falsificacions profundes, potser en forma d'aquestes veus d'Alexa, més serem escèptics amb les falsificacions més nefastes. De nou, tenint en compte el fàcil que és difondre mentides a Facebook, potser no.
Amazon no ha dit si aquesta funció arribarà a Alexa o si és només una demostració de tecnologia. Espero que ho faci. La tecnologia està en el seu millor moment quan s'utilitza d'una manera humanista com aquesta, i tot i que la reacció fàcil és anomenar-la esgarrifosa, com diu Selepak, realment no és gaire diferent de veure vídeos antics o escoltar missatges de veu desats. com un personatge d'un programa de televisió amb guió mandrós.
I si la tecnologia per a falsificacions profundes està disponible, per què no l'utilitzem per reconfortar-nos?