El basurero digital revisitado: Así funcionan los centros de moderación de Facebook.

El basurero digital revisitado: Así funcionan los centros de moderación de Facebook.

Facebook y sus proveedores de servicios tratan como un secreto de Estado la manera como esta corporación global modera su contenido. Gracias a un informador podemos reconstruir por primera vez cómo se organizan los centros de moderación.

En la pantalla aparece un ticket nuevo. Mika lo mira por 20 segundos y hace clic en Delete. Hoy ya ha revisado 240 tickets y apenas está en la mitad de su jornada laboral. Mika trabaja en el centro de borrado de Facebook en la ciudad de Essen, en Alemania. Allí, la empresa Competence Call Center (CCC) modera todo el contenido denunciado en la página de la corporación global. Entra el siguiente ticket: es un post de un diputado del parlamento alemán. Mika lo piensa un rato; reconoce un PR-fire-risk (riesgo de relaciones públicas) y refiere el caso a la central de Facebook en Dublín.

Según Facebook, más de 15.000 personas trabajan en la comprobación del contenido de la página a nivel global. La compañía y sus proveedores de servicios tratan la moderación de contenido como una división de alta seguridad. Para entrar a su trabajo, Mika tiene que pasar por dos sensores de huella digital. El cuarto donde puede guardar sus cosas personales está vigilado por vídeo. Especialmente los bolígrafos, dispositivos técnicos, teléfonos móviles, papel, dispositivos de almacenamiento, deben quedarse ahí – todo lo que su empleador considera como peligroso. Quien lleva objetos prohibidos al piso de trabajo se arriesga a ser despedido.

“Mucho poder va acompañado por mucha responsabilidad”, explica nuestra fuente. Quiere aliviar la falta de claridad que existe sobre cómo funciona la moderación en Facebook. En el ámbito público, muchas cosas pueden parecer más negativas de lo que en verdad son. La falta de transparencia de Facebook y sus proveedores de servicio lleva innecesariamente a malentendidos, dice Mika, quien considera muy importante su trabajo: “Lo que yo veo y quito, otras personas ya no tienen que verlo más.”

Moderar Instagram y Facebook: una tarea de 24 horas

Netzpolitik.org ha obtenido por primera vez información detallada sobre los procesos de trabajo en los centros de borrado para Facebook del proveedor CCC en Essen. Para la investigación nos reunimos con una persona a quien llamaremos Mika en este artículo. Trabaja de manera presencial y revisa contenidos y cuentas de usuarios. Nos explica las estructuras, jerarquías, procesos, condiciones laborales, sistemas y controles de trabajo en CCC, una empresa con 7.500 empleados a nivel mundial.

Unas mil personas trabajan en el centro de moderación en Essen. Las 24 horas trabajan con el contenido denunciado en Facebook e Instagram. Revisan tanto contenido individual – también de grupos y de Messenger –, como cuentas enteras, grupos y páginas. En Essen, los moderadores gestionan 13 mercados divididos por idioma. Facebook confirma solamente que en Essen se revisan contenidos en alemán, holandés, árabe y turco.

Según Mika, también se revisan las transmisiones en vivo para el mercado alemán. Solamente las cuentas fake (falsas) no serán revisadas en Essen.

Aunque Facebook ha subcontratado la moderación, la empresa sigue decidiendo sobre los procesos y reglas para llevarla a cabo. Hay actualizaciones frecuentes de políticas que vienen de la sede para Europa, y  para niveles de jerarquía más altos la comunicación a la central en Dublín es más directa.

Tickets, Queues y SRT

El software para la moderación también es de Facebook. El sistema de tickets forma parte de una interfaz de trabajo basada en un navegador que se llama SRT. Este sistema se utiliza en todo el mundo y combina el sistema de tickets para la moderación con un “Facebook Workplace” además de la posibilidad de consultar las políticas y reglas.

El sistema de SRT da estructura a la moderación. Cada ticket representa un contenido que hay que revisar. Los tickets vienen de varias “filas” (queues) con prioridades diferentes. En la fila que Mika llama hi -pri queue (de alta prioridad) se encuentran contenidos de autolesión, anuncios de suicidio, amenazas terroristas, pornografía infantil y cosas semejantes. Los tickets de esta fila se revisan inmediatamente y, en caso de duda, se refieren a la central europea de Facebook en Dublín. Allí se decide también si existe la necesidad de avisar a las autoridades. Después, la gente trabajando en Essen no tiene nada que ver con el desarrollo de los casos individuales, y generalmente no vuelven a saber de ellos.

Según nuestra fuente, los empleados tienen 24 horas para revisar tickets de la hate queue (fila de odio). Si los criterios de Facebook sobre discurso de odio son aplicables, se borra el contenido. La ley alemana que regula las redes sociales establece  el mismo período para el borrado de contenido prohibido. Los casos en los que aplicaría la ley alemana constituyen solamente una parte muy pequeña de todos los casos en Facebook y no necesariamente esta es aplicada.

En el SRT, las filas se pueden asignar individualmente a los moderadores: “Como moderadores revisamos todas aquellas filas para las cuales fuimos entrenados”, dice Mika. Supuestamente existen filas adicionales, por ejemplo para fotos o la proactive queue (fila proactiva), con las cuales Facebook entrena la inteligencia artificial en la moderación. Facebook no ha confirmado a netzpolitik.org la existencia de tales queues.

Ignorar, borrar, subir de nivel

Cuando llegue un contenido al escritorio de un moderador, tiene varias opciones:

Las categorías principales son:

  • Ignorar, benigno
  • Ignorar, sexualmente sugestivo
  • Borrar, para todas las categorías, como incitación de odio, bullying, spam, y más
  • Checkpoint (en caso de suicidio, autolesión), el usuario recibe una notificación: “Un amigo se dio cuenta de que no te sientes bien.” El contenido se borra.
  • Subir de nivel, en caso de terrorismo, amenaza de bomba, pornografía infantil, pornografía vengativa, etc. El ticket se refiere directamente a Facebook. Allí se decide si se involucra a las autoridades.
  • Marcar como… : Se pone una marca de agua sobre una imagen con el aviso que contiene contenido perturbador.
  • Mandar a… : Se manda el ticket a un nivel más alto de la jerarquía o, dado el caso, a la central en Dublín.

Estas distintas categorías tienen varias sub-categorías que pueden crear hasta cuatro niveles.

Una excepción son los casos que se evalúan como riesgos de relaciones públicas. Aplica para  políticos, gente famosa y cuentas con un alcance grande – según Mika, hablamos de más de 100.000 seguidores. Facebook prefiere evitar el escándalo público causado por sus decisiones de moderación en el caso de no poder decidir de manera inequívoca. Según nuestro informador, un ejemplo son  ciertas declaraciones racistas de políticos del partido alemán de extrema derecha, Alternativa für Deutschland (Alternativa para Alemania).

¿Lleva eso a una sociedad de dos niveles? Facebook niega públicamente las acusaciones de tratar preferencialmente o de otra manera a personalidades prominentes en los procesos de moderación. “Las reglas son las mismas para todos”, contesta el director de la oficina de cabildeo de Facebook en Bruselas, eludiendo nuestra pregunta. Sin embargo, ¿podemos hablar de un trato igual cuando los usuarios con mayor alcance son tratados con más sensibilidad y atención?

Aplicando el Derecho de Facebook

Facebook está orgulloso de su moderación de contenidos. La empresa decide sobre borrar o no borrar, presumiblemente, en millones de casos cada semana. “No hay nada que no se difunde en algún lugar”, nos explica Mika de manera lacónica. Facebook e Instagram constituyen las redes sociales más importantes en el mundo occidental. La gente interactúa en estas plataformas que determinan su identidad y construyen su visión del mundo. Las plataformas también son lugar para campañas electorales y debates políticos. Esto significa que Facebook administra una infraestructura central del espacio público digital – y determina de esta manera las reglas de comunicación para mil millones de personas.

Con la moderación de contenido se intenta crear un equilibrio entre darles una voz a los usuarios y protegerles, dice Vittoria Federici, ejecutiva  de Facebook, en una conferencia en Bruselas. La “brigada de borrado” actúa principalmente respetando la propia ley de Facebook, sus normas comunitarias. Ante el público, estas normas son formuladas de manera bastante vaga. Internamente, en cambio, existe un documento secreto de más de cien páginas que las regula y determina estrictamente. Mika llama a este documento la “ley de Facebook”.

Qué tan complejo -y de vez en cuando problemático- puede ser este conjunto de normas ya ha sido descrito en varios medios. Lo que es menos conocido es su aplicación práctica. “Lo que hacemos es derecho de Facebook”, explica Mika. Hay que interpretar estas normas extensas lo más al detalle que sea posible. Se necesita algo de tiempo hasta que los moderadores aprenden a suprimir su propia intuición y opinión.

No se necesita de una cualificación especial para ser moderador. Para trabajar en un cierto mercado, el moderador solamente debe saber inglés y el idioma nacional de la región. Al inicio, todos los empleados nuevos tienen que aprobar un curso de formación que dura dos semanas y, luego, acompañar y observar a un empleado experimentado durante un proceso llamado shadowing. Como última etapa, practican con decisiones de moderación simuladas y, después de todo ello, ya pueden empezar a trabajar.

Para Mika, las únicas ocasiones en las cuales le cuesta tomar decisiones de moderación son los temas de acoso y discurso de odio: Muchas vulgaridades que se expresan en las redes sociales no se pueden borrar, según las normas de Facebook. Además, el contenido subido por racistas y fascistas estira al máximo las normas comunitarias, situándose en los límites de lo que no debe ser borrado; es decir, encapsulan su mensaje de odio sin violar las normas.

Nuestra fuente parece bastante serena. Nos explica que deja “las cosas” en su lugar de trabajo; de otra forma no podría soportarlo: “al inicio fue muy duro, pero te acostumbras. Los videos de decapitaciones son de los más amables, al menos cuando los verdugos saben lo que hacen.” Los empleados de los niveles más bajos ganan apenas por encima del salario mínimo de Alemania, los fines de semana y durante los turnos de noche hasta el 50 % más. En el centro de Essen, solamente ofrecen asistencia psicológica durante el día. Sin embargo, según Facebook, los proveedores tendrán que facilitar acceso a consulta psicológica las 24 horas.

Las normas de Facebook se revisan continuadamente. Facebook informa a sus proveedores periódicamente sobre tales novedades a través de las llamadas Market Calls y Clarifications (llamadas de mercado y aclaraciones). Lo más reciente es la prohibición, a nivel global, de cualquier forma de insinuación sexual. Según Federici, la ejecutiva responsable, Facebook se comunica con representantes de la sociedad civil, científicos y autoridades antes de cada cambio de sus normas. Pero nada se sabe sobre la manera en que Facebook finalmente decide.

Moderadores bajo vigilancia

El desempeño de los empleados es monitoreado con un sistema de puntaje. Este incluye datos tales como decisiones correctas de moderación, número de tickets procesados y velocidad. El valor deseable en este sistema de puntación es del 95 %, y el sistema pone más énfasis en la calidad que en la cantidad, según nuestra fuente. Los empleados pueden consultar permanentemente su puntuación en su pantalla, en el programa SRT. Si un empleado no alcanza el puntaje en cierta área, recibirá una nueva capacitación sobre este tema. Cuantitativamente, 250 a 400 tickets por día es la cantidad normal en el CCC, pero también hay personas que revisan más de 1,500 tickets. Si alguien solamente logra revisar 100 tickets o menos, será despedido con bastante rapidez. La fuente describe su experiencia en la operación como una cultura de puerta giratoria, con alta rotación. Los jefes están ejerciendo presión constantemente. Después de la contratación, muchos son desechados rápidamente si no alcanzan el rendimiento esperado.

Los principiantes comienzan con CCC como moderador de contenido. El siguiente nivel en la jerarquía son los expertos en la materia. Ellos serán contactados para casos difíciles. Por cada 15 moderadores existe un experto. Por encima de todo ello están los auditores de calidad, que están en contacto directo y son supervisados por Facebook en Dublín. Aquí la cuota es uno por cada 50. Los auditores de calidad verifican aleatoriamente las decisiones de los moderadores, en parte también para otros centros de moderación. La puntación de los moderadores también depende de las decisiones de los auditores de calidad. Facebook, contrario a lo que cuenta nuestra fuente, dice que todos los niveles jerárquicos están en contacto regular con los empleados de Facebook.

Pronto termina la jornada laboral de Mika; casi 600 veces ha decidido hoy qué debe y qué no debe dejarse en la plataforma. “En algún momento has visto casi todo. Solo hay variaciones.” Nuestra fuente no sabe cuánto tiempo quiere continuar con este trabajo. En algún momento será tiempo de hacer otra cosa.

 

Acerca de esta investigación y las fuentes:

Nuestro conocimiento de la organización del centro de moderación en Essen se basa en una conversación de varias horas por tres editores de netzpolitik.org con una fuente en el Competence Call Center. No podemos y no queremos describir a la fuente en más detalle por razones de la protección del informante, pero la consideramos como creíble. Somos consientes de los problemas y del riesgo que se crean por solamente poder confiar en una fuente en algunas partes de esta investigación. Es por eso que tenemos verificadas y confirmadas muchas partes del artículo por otras fuentes, incluidos otros proveedores de servicios de Facebook. A través de estas fuentes adicionales, podemos decir hoy que todos los proveedores de servicios utilizan sistemas muy similares o incluso idénticos. Gran parte de esta investigación también fue confirmada por Facebook – los propios proveedores de servicios no hicieron ninguna declaración

Este texto apareció por primera vez en netzpolitik.org (en alemán).

 

Contenido relacionado:

El basurero digital era un lecture performance de Moritz Riesewick, de la Escuela Superior de Arte Dramático Ernst-Busch en Alemania organizado por la Fundación Heinrich Böll en Berlín en abril 2016.

Contenidos relacionados

  • El basurero digital

    Las 24 horas, un ejército de jóvenes filipinos ve transcurrir su vida en monótonos edificios a través de las calles de Manila. Concentrados ante un monitor, su función es escanear hasta 3 mil imágenes diarias, descartando las inapropiadas. Son los content moderators, empleados por outsourcing locales que trabajan para corporativos globales como Facebook y Youtube. Moritz Riesewick nos introduce al sórdido basurero de Internet. Conoce de cerca a quienes mantienen limpio nuestra Face.

  • Youtube: ¿Un megáfono inclusivo o el basurero del internet?

    Video

    Farah Bouamar, artista de video en la web y miembro del colectivo "Datteltäter" habla sobre la plataforma youtube. ¿Cuál era la idea original de esta plataforma? ¿Cómo se transformó? ¿Por qué es tan fácil producir y difundir clichés y estereotipos en YouTube? 

0 Comentarios

Agregar nuevo comentario

Agregar nuevo comentario