Clau per emportar
- Deep Nostalgia és un nou programa que us permet animar fotos antigues.
- La tecnologia mostra com de fàcil és crear vídeos de persones fent coses que en realitat no han fet a la vida real.
- La tecnologia falsa profunda ja és tan sofisticada que és difícil saber si un vídeo és real o generat per ordinador, diu un expert.
Aneu amb compte amb el programari nou que pot crear les anomenades "falsificacions profundes", en què es poden simular vídeos de persones reals, adverteixen els experts.
Deep Nostalgia, publicat per l'empresa MyHeritage, és tendència a les xarxes socials, amb usuaris que reanimen tothom, des de compositors famosos fins a parents morts. El programari està generant reaccions mixtes, amb algunes persones encantades amb les creacions, i d' altres les trobant esgarrifoses. La tecnologia mostra com de fàcil és crear vídeos de persones fent coses que en realitat no han fet a la vida real.
"La tecnologia Deepfake és cada cop més sofisticada i més perillosa", va dir Aaron Lawson, director adjunt del Laboratori de Tecnologia i Recerca de la Parla (STAR) de SRI International, en una entrevista per correu electrònic. "Això es deu en part a la naturalesa de la intel·ligència artificial. Quan la tecnologia "tradicional" requereix temps i energia humans per millorar, la IA pot aprendre d'ella mateixa.
"Però la capacitat de l'IA per desenvolupar-se és una arma de doble tall", va continuar Lawson. "Si una IA es crea per fer alguna cosa benèvola, genial. Però quan una IA està dissenyada per a quelcom maliciós com ara falsificacions profundes, el perill no té precedents."
El programari dóna vida a les fotos
El lloc web de genealogia MyHeritage va presentar el motor d'animació el mes passat. La tecnologia, coneguda com a Deep Nostalgia, permet als usuaris animar fotos a través del lloc web MyHeritage. Una empresa anomenada D-ID va dissenyar algorismes per a MyHeritage que recreen digitalment el moviment de rostres humans. El programari aplica els moviments a les fotografies i modifica les expressions facials perquè es moguin com ho fan habitualment les cares humanes, segons el lloc web MyHeritage.
Deep Nostalgia mostra que la tecnologia deep-fake és cada cop més accessible, va dir Lior Shamir, professor d'informàtica a la Universitat Estatal de Kansas, en una entrevista per correu electrònic. Progressa ràpidament i elimina fins i tot les diferències subtils entre el vídeo i l'àudio fals i real.
"També s'ha produït un avenç substancial cap a la falsificació profunda en temps real, el que significa que es generen vídeos falsos profunds convincents en el moment de la comunicació de vídeo", va dir Shamir."Per exemple, un pot tenir una reunió de Zoom amb una determinada persona, mentre veu i escolta la veu d'una persona completament diferent."
També hi ha un nombre creixent de falsificacions profundes basades en llenguatges, va dir Jason Corso, el director de l'Institut Stevens d'Intel·ligència Artificial de l'Institut de Tecnologia Stevens, en una entrevista per correu electrònic. "Generar paràgrafs sencers de text fals profund cap a una agenda específica és bastant difícil, però els avenços moderns en el processament del llenguatge natural profund ho fan possible", va afegir.
Com detectar una falsificació profunda
Tot i que la tecnologia de detecció de falsificacions profundes encara està en una etapa incipient, hi ha algunes maneres de detectar-ne una, va dir Corso, començant per la boca.
"La variabilitat en l'aspecte de l'interior de la boca quan algú parla és molt alta, cosa que dificulta l'animació de manera convincent", va explicar Corso. “Es pot fer, però és més difícil que la resta del cap. Observeu com els vídeos de Deep Nostalgia no demostren la capacitat de la fotografia per dir "T'estimo" o alguna altra frase durant la creació falsa profunda. Per fer-ho, caldria obrir i tancar la boca, cosa que és molt difícil per a la generació de falses profundes."
El fantasma és un altre regal, va afegir Corso. Si veus borroses al voltant de les vores del cap, això és el resultat del "moviment ràpid o els píxels limitats disponibles a la imatge d'origen. Una orella podria desaparèixer parcialment momentàniament, o els cabells es podrien desenfocar on no t'ho esperaries", va dir. va dir.
També pots vigilar la variació de color quan intentes detectar un vídeo fals profund, com ara una línia nítida a la cara, amb colors més foscos a un costat i més clars a l' altre.
"Els algorismes informàtics sovint poden detectar aquests patrons de distorsió", va dir Shamir. "Però els algorismes de falsificació profunda estan avançant ràpidament. És inevitable que es requereixin lleis estrictes per protegir de la falsificació profunda i els danys que poden causar fàcilment."