No confieu en res del que veieu al web, diuen els experts

Taula de continguts:

No confieu en res del que veieu al web, diuen els experts
No confieu en res del que veieu al web, diuen els experts
Anonim

Clau per emportar

  • La nova investigació revela que les persones no poden separar les imatges generades per IA de les reals.
  • Els participants van valorar les imatges generades per IA com a més fiables.
  • Els experts creuen que la gent hauria de deixar de confiar en qualsevol cosa que vegi a Internet.
Image
Image

L'adagio "veure és creure" ja no és rellevant quan es tracta d'Internet, i els experts diuen que no millorarà aviat.

Un estudi recent va trobar que les imatges de cares generades per la intel·ligència artificial (IA) no només eren molt fotorealistes, sinó que també semblaven més virtuoses que les cares reals.

"La nostra avaluació del fotorrealisme de les cares sintetitzades amb IA indica que els motors de síntesi han passat per la vall misteriosa i són capaços de crear cares indistinguibles i més fiables que les cares reals", van observar els investigadors..

Aquesta persona no existeix

Els investigadors, la doctora Sophie Nightingale de la Universitat de Lancaster i el professor Hany Farid de la Universitat de Califòrnia, Berkeley, van dur a terme els experiments després de reconèixer les amenaces ben divulgades de falsificacions profundes, que van des de tot tipus de frau en línia fins a estimulants. campanyes de desinformació.

"Potser la més perniciosa és la conseqüència que, en un món digital en què qualsevol imatge o vídeo es pot falsificar, es pot posar en dubte l'autenticitat de qualsevol gravació incòmode o no desitjada", van afirmar els investigadors.

Van argumentar que, tot i que s'ha avançat en el desenvolupament de tècniques automàtiques per detectar contingut fals profund, les tècniques actuals no són prou eficients i precises per mantenir-se al dia amb el flux constant de contingut nou que es penja en línia. Això vol dir que depèn dels consumidors de contingut en línia separar el real del fals, suggereix el duet.

Jelle Wieringa, defensora de la conscienciació de la seguretat a KnowBe4, va estar d'acord. Va dir a Lifewire per correu electrònic que lluitar contra les falsificacions profundes reals és extremadament difícil de fer sense tecnologia especialitzada. "[Les tecnologies de mitigació] poden ser costoses i difícils d'implementar en processos en temps real, sovint es detecten un deepfake només després del fet."

Amb aquesta hipòtesi, els investigadors van realitzar una sèrie d'experiments per determinar si els participants humans poden distingir les cares sintetitzades d'última generació de les cares reals. En les seves proves, van descobrir que, malgrat l'entrenament per ajudar a reconèixer les falsificacions, la taxa de precisió només va millorar fins al 59%, davant del 48% sense formació.

Això va portar els investigadors a provar si les percepcions de fiabilitat podrien ajudar les persones a identificar imatges artificials. En un tercer estudi, van demanar als participants que puntuessin la fiabilitat de les cares, només per descobrir que la qualificació mitjana de les cares sintètiques era de 7. Un 7% més fiable que la valoració mitjana de cares reals. La xifra pot no semblar gaire, però els investigadors afirmen que és estadísticament significativa.

Fases més profundes

Les falsificacions profundes ja eren una preocupació important, i ara les aigües s'han enfosquit encara més amb aquest estudi, que suggereix que aquestes imatges falses d' alta qualitat podrien afegir una dimensió completament nova a les estafes en línia, per exemple, ajudant a crear més. perfils falsos en línia convincents.

"L'únic que impulsa la ciberseguretat és la confiança que la gent té en les tecnologies, els processos i les persones que intenten mantenir-los segurs", va compartir Wieringa. "Les falsificacions profundes, sobretot quan es tornen fotorealistes, soscaven aquesta confiança i, per tant, l'adopció i l'acceptació de la ciberseguretat. Pot portar a la gent a desconfiar de tot allò que perceben."

Image
Image

Chris Hauk, campió de la privadesa del consumidor a Pixel Privacy, va estar d'acord. En un breu intercanvi de correu electrònic, va dir a Lifewire que la falsificació profunda fotorealista podria causar "estralls" en línia, especialment en aquests dies en què es pot accedir a tot tipus de comptes mitjançant la tecnologia d'identificació amb foto.

Acció correctiva

Afortunadament, Greg Kuhn, director d'IoT, Prosegur Security, diu que hi ha processos que poden evitar aquesta autenticació fraudulenta. Va dir a Lifewire per correu electrònic que els sistemes de credencials basats en intel·ligència artificial coincideixen amb una persona verificada amb una llista, però molts tenen salvaguardes integrades per comprovar la "vivència".

"Aquest tipus de sistemes poden requerir i guiar a un usuari perquè realitzi determinades tasques, com ara somriure o girar el cap cap a l'esquerra i després cap a la dreta. Aquestes són coses que les cares generades estàticament no podrien realitzar", ha compartit Kuhn.

Els investigadors han proposat directrius per regular la seva creació i distribució per protegir el públic de les imatges sintètiques. Per començar, suggereixen incorporar marques d'aigua profundament arrelades a les xarxes de síntesi d'imatges i vídeos per garantir que tots els mitjans sintètics es puguin identificar de manera fiable.

Fins llavors, Paul Bischoff, defensor de la privadesa i editor de la investigació infosec a Comparitech, diu que la gent està sola."La gent haurà d'aprendre a no confiar en les cares en línia, de la mateixa manera que tots hem après (esperem) a no confiar en els noms visibles als nostres correus electrònics", va dir Bischoff a Lifewire per correu electrònic.

Recomanat: