La tecnologia Deepfake de Facebook no ens salvarà, diuen els experts

Taula de continguts:

La tecnologia Deepfake de Facebook no ens salvarà, diuen els experts
La tecnologia Deepfake de Facebook no ens salvarà, diuen els experts
Anonim

Clau per emportar

  • A mesura que els deepfakes són més fàcils de fer, les maneres noves i millorades de detectar-los s'han convertit en una prioritat.
  • La tecnologia de deepfake de Facebook utilitza l'aprenentatge automàtic invers per descobrir si un vídeo és un deepfake o no.
  • Els experts diuen que utilitzar la tecnologia blockchain seria la millor manera de veure si un vídeo és real o no, ja que el mètode es basa en dades contextuals.
Image
Image

Facebook confia en el seu model d'aprenentatge automàtic per combatre els deepfakes, però els experts diuen que l'aprenentatge automàtic per si sol no ens salvarà de ser enganyats pels deepfakes.

Empreses com Facebook, Microsoft i Google estan treballant per combatre les falsificacions profundes que no s'estenen al web i a les xarxes socials. Tot i que els mètodes són diferents, hi ha un mètode potencialment infal·lible per detectar aquests vídeos falsos: les cadenes de blocs.

"[Les cadenes de blocs] només us ofereixen molt de potencial per validar el deepfake d'una manera que és la millor forma de validació que puc veure", Stephen Wolfram, fundador i CEO de Wolfram Research i autor d'A New Kind of Science, va dir a Lifewire per telèfon.

Tècnica de detecció de falsificacions profundes de Facebook

La tecnologia Deepfake ha crescut ràpidament durant els últims anys. Els vídeos enganyosos utilitzen mètodes d'aprenentatge automàtic per fer coses com ara superposar la cara d'algú al cos d'una altra persona, alterar les condicions de fons, falsa sincronització de llavis i molt més. Van des de paròdies inofensives fins a fer que celebritats o personatges públics diguin o facin alguna cosa que no van fer.

Els experts diuen que la tecnologia avança ràpidament i que els deepfakes només seran més convincents (i més fàcils de crear) a mesura que la tecnologia estigui més disponible i més innovadora.

Image
Image

Facebook va donar més informació recentment sobre la seva tecnologia de detecció de falsificacions profundes en col·laboració amb la Universitat Estatal de Michigan. La xarxa social diu que es basa en l'enginyeria inversa des d'una única imatge generada per intel·ligència artificial fins al model generatiu utilitzat per produir-la.

Els científics d'investigació que van treballar amb Facebook van dir que el mètode es basa en descobrir els patrons únics darrere del model d'IA utilitzat per generar un deepfake.

“En generalitzar l'atribució d'imatges al reconeixement obert, podem inferir més informació sobre el model generatiu utilitzat per crear un deepfake que va més enllà de reconèixer que no s'ha vist abans. I rastrejant les similituds entre els patrons d'una col·lecció de deepfakes, també podríem dir si una sèrie d'imatges es van originar d'una única font , van escriure els científics investigadors Xi Yin i Tan Hassner a la publicació del blog de Facebook sobre el seu mètode de deepfake.

Image
Image

Wolfram diu que té sentit que utilitzeu l'aprenentatge automàtic per detectar un model d'IA avançat (un deepfake). Tanmateix, sempre hi ha espai per enganyar la tecnologia.

"No m'estranya gens que hi hagi una manera decent d'aprenentatge automàtic de [detectar deepfakes]", va dir Wolfram. "L'única pregunta és si fas prou esforç, pots enganyar-ho? Estic segur que pots."

Combatre els deepfakes d'una manera diferent

En canvi, Wolfram va dir que creu que utilitzar blockchain seria la millor opció per detectar amb precisió determinats tipus de deepfakes. La seva opinió sobre l'ús de la cadena de blocs per sobre de l'aprenentatge automàtic es remunta al 2019 i va dir que, en última instància, l'enfocament de la cadena de blocs pot proporcionar una solució més precisa al nostre problema de deepfake.

"Espero que els espectadors d'imatges i vídeos poguessin comprovar habitualment les cadenes de blocs (i els 'càlculs de triangulació de dades') una mica com ara els navegadors web comproven els certificats de seguretat", va escriure Wolfram en un article publicat a Scientific American.

Com que les cadenes de blocs emmagatzemen dades en blocs que després s'encadenen en ordre cronològic, i com que les cadenes de blocs descentralitzades són immutables, les dades introduïdes són irreversibles.

L'única pregunta és si fas prou esforç, pots enganyar-ho? Estic segur que pots.

Wolfram va explicar que posant un vídeo en una cadena de blocs, podríeu veure l'hora que es va fer, la ubicació i altra informació contextual que us permetria saber si s'ha modificat d'alguna manera.

"En general, com més metadades hi hagi que contextualitzen la imatge o el vídeo, més probabilitats hi haurà de saber-ho", va dir. "No pots fingir el temps en una cadena de blocs."

No obstant això, Wolfram va dir que el mètode utilitzat, tant si es tracta d'aprenentatge automàtic com de blockchain, depèn del tipus de deepfake contra el qual intenteu protegir (és a dir, un vídeo de Kim Kardashian dient alguna cosa ximple o un vídeo d'un polític fent una declaració o suggeriment).

"L'enfocament blockchain protegeix contra certs tipus de falsificacions profundes, de la mateixa manera que el processament d'imatges d'aprenentatge automàtic protegeix contra determinats tipus de falsificacions profundes", va dir.

El resultat final, sembla, és la vigilància per a tots nos altres a l'hora de combatre el diluvi deepfals que s'acosta.

Recomanat: