La restricció d'edat de la nova IA de YouTube preocupa a la comunitat LGBTQ+

Taula de continguts:

La restricció d'edat de la nova IA de YouTube preocupa a la comunitat LGBTQ+
La restricció d'edat de la nova IA de YouTube preocupa a la comunitat LGBTQ+
Anonim

Clau per emportar

  • El programari automàtic de restricció d'edat de YouTube és motiu de preocupació pel que fa al contingut LGBTQ+ de la plataforma.
  • L'empresa s'ha vist afectada per la controvèrsia sobre els creadors de contingut LGBTQ+ que van consolidar els dubtes.
  • Els biaixos en l'aprenentatge automàtic donen credibilitat a la idea que la seva implementació imperfecta de filtres probablement restringirà l'accés injustament.
Image
Image

Amb un historial d'orientació injusta als creadors de contingut LGBTQ+ en el seu procés de moderació, la nova tecnologia basada en IA de YouTube es veu com un següent pas preocupant per al gegant tecnològic.

Al blog oficial de YouTube la setmana passada, la plataforma per compartir vídeos va presentar plans per llançar un nou programari automàtic per "aplicar de manera més coherent les restriccions d'edat" als vídeos considerats inadequats per als espectadors més joves.

Motivat per les preocupacions recents sobre els nens a l'aplicació, el nou sistema es basa en un programari d'intel·ligència artificial d'aprenentatge automàtic amb la possibilitat de renunciar a moderadors humans per a un procés més automàtic. La qüestió? Els sistemes automatitzats de YouTube han estat acusats de distingir el contingut i els creadors LGBTQ+ simplement per existir.

Tot i que no és maliciós, que no crec que ho sigui, és una manca d'aportació de veus diverses, o almenys una f alta de respecte.

"L'aprenentatge automàtic està informat i creat per humans, i és possible tenir aquests biaixos inherents o apresos per la pròpia màquina", va dir el youtuber Rowan Ellis en una entrevista telefònica a Lifewire. "El seu biaix pel que fa al contingut [LGBTQ+] ha estat evident en les experiències anteriors dels youtubers [LGBTQ+], i no he vist proves que s'hagi fet res per evitar-ho."

Bebé, ara tenim mala sang

Ellis és una youtuber que crea contingut educatiu amb una inclinació feminista i queer, i el 2017 va publicar un vídeo sobre el mode restringit de l'empresa. Com a incursió inicial en la moderació automàtica del contingut, aquest mode va permetre als usuaris seleccionar prèviament opcionalment el "contingut potencialment madur" a partir dels suggeriments i recomanacions de cerca.

Aconseguint més de 100.000 visualitzacions, creu que hi va haver un esforç conscient per impedir la restricció del seu canal a causa de la seva oposició vocal als excessos del nou pas de YouTube cap a la moderació. Altres usuaris de la plataforma no van tenir tanta sort i ho van fer saber a YouTube.

L'agost de 2019, un grup de vuit creadors LGBTQ+ va presentar una demanda col·lectiva contra YouTube que va acusar l'empresa de Silicon Valley de restringir els creadors i continguts de vídeos queer i trans. La demanda al·lega que el lloc utilitza "pràctiques de regulació, distribució i monetització de contingut il·legals que estigmatitzen, restringeixen, bloquegen, desmonetitzen i perjudiquen econòmicament els demandants LGBT i la comunitat LGBT més gran."Encara s'està fent camí pels tribunals de Califòrnia.

L'aprenentatge automàtic està informat i creat per humans, i és possible tenir aquests biaixos inherents o apresos per la pròpia màquina.

El juny d'aquell mateix any, la plataforma va rebre una gran atenció mediàtica després de negar-se a recriminar ràpidament el popular comentarista conservador Steven Crowder per una campanya d'assetjament homòfob de mesos de durada contra el periodista i presentador de Vox Carlos Maza. Això va consolidar el que Ellis va dir que és un patró amb la plataforma en línia d'ignorar els reptes únics als quals s'enfronten els creadors queer. La manca de fe dels creadors LGBTQ+ en la capacitat de YouTube de mostrar-se per ells no és sense mèrit.

"No crec que hagin entès la necessitat que hi hagi transparència pel que fa a les qüestions socials i garantir la igu altat", va dir. "Encara hi ha nens a tot el món que han crescut amb la idea que ser gai és incorrecte, i quan comencen a qüestionar aquesta creença, però la troben tancada per una cerca o restricció segura, reforçarà aquesta idea que és incorrecte, inadequat, adult, pervers i brut."

No s'ha pogut aprendre automàticament

Amb la seva sòrdida història sobre els creadors de contingut LGBTQ+ a la seva plataforma, encara es preocupa la implementació del programari d'aprenentatge automàtic per discernir normes més grans. Don Heider, director executiu del Markkula Center for Applied Ethics, suggereix que el potencial de bogeria és un risc massa gran per jugar.

"És difícil creure que la IA pugui governar eficaçment el contingut de diversos països amb diferents normes i estàndards culturals", va escriure en una entrevista per correu electrònic. "La IA es veu massa sovint com la resposta a preguntes complexes. En aquest moment, la IA i la forma en què es crea tenen dificultats per fer front fins i tot a tasques senzilles, i molt menys a qualsevol moderació de contingut amb qualsevol nivell de complexitat."

Segons el seu bloc, YouTube va decidir utilitzar la tecnologia d'IA a causa de la manca d'una moderació constant per part dels moderadors humans. Augmentar el seu ús de filtres informatitzats per eliminar vídeos considerats inadequats es va convertir en la norma, i la implementació dels mateixos procediments per a les seves polítiques de restricció d'edat es considera un pas següent lògic.

Com a empresa que busca millorar gradualment els seus processos després de llargues crítiques sobre la seva relació amb els consumidors infantils, aquesta decisió no sorprèn.

No crec que hagin entès la necessitat que hi hagi transparència pel que fa a les qüestions socials i garantir la igu altat.

Els nens s'han convertit en un grup demogràfic clau per al lloc per compartir vídeos. A l'agost, l'empresa d'analítica de vídeo digital Tubular va descobrir que, a part dels vídeos musicals, el contingut adreçat als nens encapçalava la llista de finals de mes dels vídeos més vistos a YouTube..

L'interès de l'empresa a protegir aquesta potència lucrativa i emergent de la plataforma té sentit. Tanmateix, les eines utilitzades per fer complir aquesta protecció segueixen sent incòmodes per a aquells que ja s'han trobat aigües avall dels procediments de moderació de l'empresa.

"La meva preocupació és que farà molt de mal i no protegirà els joves [LGBTQ+] que necessiten contingut informatiu, franc i honest que molts youtubers [LGBTQ+] poden oferir, però que es marca al seu sistema com a inadequat", va dir Ellis."Encara que no sigui maliciós, cosa que no crec que ho sigui, és una manca d'aportació de veus diverses, o almenys una f alta de respecte.

"Ho veiem tot el temps a la tecnologia. Quan mireu que el reconeixement facial no diferencia diferents cares negres, o quan mirem la medicina i veiem que la medicació només s'ha provat en un gènere concret. Aquestes són converses més grans i YouTube no està exempt d'això."