Clau per emportar
- Una nova eina de programari permet que la intel·ligència artificial controli els comentaris d'Internet per detectar incitació a l'odi.
- La AI és necessària per moderar el contingut d'Internet a causa de l'enorme volum de material que supera les capacitats humanes.
- Però alguns experts diuen que el seguiment de la parla amb IA genera problemes de privadesa.
A mesura que augmenta el discurs d'odi en línia, una empresa diu que pot tenir una solució que no depengui de moderadors humans.
Una startup anomenada Spectrum Labs proporciona tecnologia d'intel·ligència artificial als proveïdors de plataformes per detectar i tancar els intercanvis tòxics en temps real. Però els experts diuen que la supervisió de la IA també planteja problemes de privadesa.
"La supervisió de la IA sovint requereix mirar els patrons al llarg del temps, cosa que requereix conservar les dades", va dir a Lifewire David Moody, soci sènior de Schellman, una empresa d'avaluació de la seguretat i el compliment de la privadesa, en una entrevista per correu electrònic. "Aquestes dades poden incloure dades que les lleis han marcat com a dades de privadesa (informació d'identificació personal o PII)."
Més discurs d'odi
Spectrum Labs promet una solució d' alta tecnologia al vell problema del discurs de l'odi.
"De mitjana, ajudem les plataformes a reduir els esforços de moderació del contingut en un 50% i augmentar la detecció de comportaments tòxics per 10 vegades", afirma l'empresa al seu lloc web.
Spectrum diu que va treballar amb instituts de recerca amb experiència en comportaments nocius específics per crear més de 40 models d'identificació de comportaments. La plataforma de moderació de contingut Guardian de la companyia va ser creada per un equip de científics de dades i moderadors per "donar suport a la protecció de les comunitats de la toxicitat"."
Hi ha una necessitat creixent de maneres de combatre el discurs de l'odi, ja que és impossible que un ésser humà controli tots els trams del trànsit en línia, Dylan Fox, director general d'AssemblyAI, una startup que ofereix reconeixement de parla i té clients implicats en el seguiment de l'odi. discurs, va dir a Lifewire en una entrevista per correu electrònic.
"Hi ha uns 500 milions de tuits al dia només a Twitter", va afegir. "Fins i tot si una persona pogués comprovar un tuit cada 10 segons, Twitter hauria de donar feina a 60 mil persones per fer-ho. En canvi, utilitzem eines intel·ligents com la intel·ligència artificial per automatitzar el procés."
A diferència d'un ésser humà, la IA pot funcionar les 24 hores del dia i, potencialment, ser més equitativa perquè està dissenyada per aplicar les seves regles de manera uniforme a tots els usuaris sense que les creences personals interfereixin, va dir Fox. També hi ha un cost per a aquelles persones que han de supervisar i moderar el contingut.
"Poden estar exposats a violència, odi i actes sòrdids, que poden ser perjudicials per a la salut mental d'una persona", va dir.
Spectrum no és l'única empresa que busca detectar automàticament el discurs d'odi en línia. Per exemple, Center Malaysia ha llançat recentment un rastrejador en línia dissenyat per trobar el discurs d'odi entre els internautes de Malàisia. El programari que van desenvolupar, anomenat Tracker Benci, utilitza l'aprenentatge automàtic per detectar el discurs d'odi en línia, especialment a Twitter.
El repte és com crear espais en què les persones puguin interactuar entre elles de manera constructiva.
Preocupacions de privadesa
Si bé solucions tecnològiques com Spectrum podrien combatre el discurs d'odi en línia, també plantegen preguntes sobre quant haurien de fer els ordinadors policials.
Hi ha implicacions sobre la llibertat d'expressió, però no només per als ponents les publicacions dels quals s'eliminarien com a discurs d'odi, va dir Irina Raicu, directora d'ètica d'Internet del Markkula Center for Applied Ethics de la Universitat de Santa Clara, a Lifewire en un correu electrònic. entrevista.
"Permetre l'assetjament en nom de la 'llibertat d'expressió' ha fet que els objectius d'aquest discurs (sobretot quan s'adreça a individus concrets) deixin de parlar, a abandonar completament diverses converses i plataformes", va dir Raicu."El repte és com crear espais en què les persones puguin interactuar entre elles de manera constructiva."
El monitoratge de la parla de la IA no hauria de plantejar problemes de privadesa si les empreses utilitzen informació disponible públicament durant el seguiment, va dir Fox. Tanmateix, si l'empresa compra detalls sobre com interactuen els usuaris en altres plataformes per identificar prèviament els usuaris problemàtics, això podria generar problemes de privadesa.
"Depenent de l'aplicació, pot ser una mica grisa", va afegir.
Justin Davis, director general de Spectrum Labs, va dir a Lifewire en un correu electrònic que la tecnologia de l'empresa pot revisar entre 2 i 5 mil files de dades en fraccions de segon. "El més important és que la tecnologia pot reduir la quantitat de contingut tòxic a què estan exposats els moderadors humans", va dir.
Potser estiguem a la cúspide d'una revolució en la IA que controla la parla i els textos humans en línia. Els avenços futurs inclouen millors capacitats de monitorització independent i autònoma per identificar formes desconegudes de discurs d'odi o qualsevol altre patró censurable que evolucionarà, va dir Moody.
Aviat, AI també podrà reconèixer patrons en els patrons de parla específics i relacionar les fonts i les seves altres activitats mitjançant l'anàlisi de notícies, els fitxers públics, l'anàlisi de patrons de trànsit, el seguiment físic i moltes altres opcions, va afegir..
Però alguns experts diuen que els humans sempre hauran de treballar amb ordinadors per controlar el discurs de l'odi.
"La IA sola no funcionarà", va dir Raicu. "S'ha de reconèixer com una eina imperfecta que s'ha d'utilitzar juntament amb altres respostes."
Correcció 1/25/2022: S'ha afegit una cita de Justin Davis al 5è paràgraf des del final per reflectir un correu electrònic posterior a la publicació.