Per què Facebook necessita regles de desinformació més clares

Taula de continguts:

Per què Facebook necessita regles de desinformació més clares
Per què Facebook necessita regles de desinformació més clares
Anonim

Clau per emportar

  • La Junta de Supervisió de Facebook ha demanat regles de desinformació més clares al lloc web de les xarxes socials.
  • Actualment, la junta ha anul·lat diverses decisions preses per Facebook per eliminar publicacions que considerava desinformació o discurs d'odi però que en realitat no eren això.
  • És necessària una definició més clara del que és i què no és desinformació o discurs d'odi, especialment amb l'abast internacional de Facebook.
Image
Image

La junta de supervisió de Facebook, que es va crear per supervisar encara més l'eliminació i la moderació de publicacions al lloc web, ha anul·lat algunes decisions anteriors preses sobre publicacions que es van eliminar, il·lustrant la necessitat de definicions i regles més clares.

La junta de supervisió va assumir els seus primers cinc casos el desembre de 2020. Tot i que una de les publicacions incloses a la revisió era dels EUA, en conjunt les publicacions provenien de quatre continents diferents, tots els quals podien veure les declaracions fetes a maneres completament diferents. Per això, les polítiques que Facebook posa en marxa han de ser concises i han de treballar amb qualsevol comunitat en què es puguin centrar les eines de moderació.

"L'activitat de "revisió independent" de Facebook ha de ser coherent a través de les fronteres internacionals", ens va escriure Jim Isaak, antic president de l'Institut d'Enginyers Elèctrics i Electrònics i un veterà de 30 anys de la indústria de la tecnologia, ens va escriure a través correu electrònic. "Però el que és 'discurs d'odi' als EUA es podria definir com a patriòtic en altres societats autocràtiques, augmentant la complexitat del que es fa".

Línies a la sorra

Aquesta necessitat de coherència i regles més concises ja està entrant en joc. Dels cinc casos que la junta de supervisió de Facebook va assumir al desembre, el grup va decidir anul·lar quatre dels casos, i dos d'ells mostraven clarament la necessitat d'una millor moderació..

En un dels casos anul·lats, la junta va donar la raó a una dona la publicació d'Instagram sobre el càncer de mama es va eliminar automàticament del lloc web per infringir la seva política de nuesa i activitat sexual per a adults.

Tot i que Facebook ja havia restaurat la fotografia, el tauler va mostrar objeccions a que s'eliminés en primer lloc. La junta fins i tot va recomanar que Facebook posés un sistema d'apel·lació que permetés als usuaris veure quan s'ha retirat una publicació, per què s'ha retirat i fins i tot suggerint maneres de parlar amb un ésser humà per buscar una solució..

Image
Image

La junta va comprovar que, tot i que la dona havia compartit una publicació que mostrava mugrons femenins descoberts i visibles, la fotografia no havia incomplert les directrius de la comunitat d'Instagram. L'estàndard de nuesa i activitat sexual d'adults que Facebook manté en els seus estàndards de la comunitat permet la nuesa quan l'usuari busca conscienciar per una raó mèdica o una altra causa.

Una altra publicació, que es va compartir des de Myanmar, incloïa un llenguatge sobre musulmans que, segons el consell, es podria considerar ofensiu, però no va assolir el nivell de discurs d'odi que justifiqués que s'eliminés o que es considerés contrari a les normes.

Aquí és on les coses comencen a ser especialment complicades.

Quin camí puja?

"Facebook opera a nivell internacional", va dir Isaak a Lifewire per correu electrònic. "Cada jurisdicció té les seves pròpies regles i Facebook pot ser responsable d'acord amb les d' altres països."

Facebook ha de tenir en compte totes les normes dels territoris on opera quan s'estableixen polítiques noves. En deixar les polítiques poc clares, Facebook està deixant espai per a errors que podrien fer que la junta de supervisió necessiti anul·lar més casos en el futur.

Amb la difusió del discurs d'odi i la desinformació cada vegada més freqüent, sobretot a les xarxes socials com Facebook i Twitter, és important que aquestes empreses ofereixin directrius clares que es puguin utilitzar per moderar la comunitat.

El que és "discurs d'odi" als EUA es podria definir com a patriòtic en altres societats autocràtiques…

Per descomptat, sempre hi ha altres opcions per ajudar a mitigar aquest tipus de problemes. De fet, un dels casos que el tauler originalment havia de supervisar al desembre es va eliminar del registre després de la supressió de la publicació per part de l'usuari.

La moderació generada per l'usuari és una cosa que ja hem vist tenir èxit a llocs web com la Viquipèdia, i recentment Twitter, en si mateix, es va intensificar amb el llançament de Birdwatch, un sistema de moderació impulsat per la comunitat per ajudar a aturar la propagació de la desinformació.

Aquests mètodes tenen altres problemes, però, és per això que aconseguir una línia de base estàndard per a les expectatives de la comunitat serà clau perquè Facebook ofereixi una millor moderació de les seves aplicacions i llocs web en el futur.

Recomanat: