No hay forma de erradicar el porno infantil y la violencia de Facebook


Como respuesta a la indignación generalizada que causó el vídeo de Facebook Live en el que se veía cómo un hombre asesinaba a un anciano, Mark Zuckerberg anunció que el gigante de las redes sociales contratará a 3.000 personas más, cuya única finalidad será la de moderar los vídeos en directo y otros contenidos que se publiquen en la red social. Eso implica que pronto habrá 7.500 personas en todo el mundo asegurándose que en la plataforma no se cuelen vídeos de porno infantil, suicidios ni asesinatos en nuestras páginas.

Desde la perspectiva psicológica, este trabajo es de los peores que existen en el sector tecnológico. En una entrevista concedida a Wired y en el reciente documental The Moderators, Adrian Chen relata las largas horas que debe pasar escrutando Facebook y otras redes sociales en busca de fotos de penes e imágenes explícitas de agresiones sexuales, explotación infantil y violencia por un sueldo más bien bajo.

“La moderación de contenido es una solución necesaria pero limitada”, afirma Kat Lo, estudiante de doctorado en la Universidad de California especializada en el estudio de comunidades en línea y moderación. “Es genial para los usuarios que Facebook incorpore a 3.000 nuevos moderadores, pero eso supone también someter a más personas a imágenes muy traumáticas”.

Muchos de estos puestos se externalizan a otras empresas, y según el relato de Chen y un artículo publicado en diciembre en el periódico alemán SZ, los que deben cumplir con esta labor aseguran no recibir la asistencia ni la formación necesarias.

Estas son algunas de las cosas que estos moderadores explicaron en la entrevista para SZ:

“He visto cosas que me han hecho replantearme seriamente mi fe en la humanidad. Cosas como torturas y bestialismo”.

“Desde que vi vídeos de pornografía infantil, podría haberme metido a monja, porque ya no soporto la idea del sexo. Hace más de un año que no mantengo relaciones con mi pareja. En cuanto me toca, me pongo a temblar”.

La moderación de contenido es la mano invisible que regula lo que vemos en internet. Incluso en su forma más cotidiana, se trata de un trabajo distópico, una clase marginada de trabajadores semicualificados que pasan horas y horas revisando selfis, fotos de vacaciones y enlaces a la caza de ese pequeño porcentaje de publicaciones ilegales o poco apropiadas para evitar que llegue a verlas el público general. Cuando se les pregunta por qué deciden aceptar este trabajo, la mayoría de los moderadores se limitan a aducir que alguien tiene que hacerlo.

En estos momentos, no existe una forma psicológicamente “segura” de mantener Facebook limpio de polvo y paja.

Ejemplos de categorías en las que uno podría especializarse: seguridad infantil e idioma árabe.

Se trata de un trabajo distópico, una clase marginada de trabajadores semicualificados que pasan horas y horas revisando selfis, fotos de vacaciones y enlaces a la caza de ese pequeño porcentaje de publicaciones ilegales

Facebook ha desarrollado una serie de herramientas inteligentes para ayudar a los moderadores en su duro trabajo. Según un portavoz de la plataforma, gracias a una IA, se aseguran de que, si 1.000 personas denuncian una imagen pornográfica, solo una persona tenga que pasar por el mal trago de verla. También utilizan el aprendizaje automático para clasificar las publicaciones por categorías, que a su vez son redirigidas a expertos en determinadas materias, como la seguridad infantil o el idioma árabe.

El software de reconocimiento de imágenes puede eliminar automáticamente imágenes ya borradas en caso de que otros usuarios volvieran a publicarlas. Facebook también utiliza bases de datos de contenido pornográfico infantil conocido para detectar y eliminar las publicaciones en el momento mismo en que se están cargando.

Pese a que se trata de avances positivos, lo cierto es que, por ahora ―y seguramente en el futuro predecible―, este trabajo deberá seguir siendo desarrollado por seres humanos en mayor o menor medida, con tal de poder detectar falsos positivos ―como los vídeos y fotos de mujeres amamantando, arte hecho con sangre menstrual o de las atrocidades de la guerra― y hacer consultas sobre contenidos que están cerca de infringir cualesquiera que sean las normas comunitarias de Facebook en ese momento dado.

“Como categoría profesional, necesitan mucho más apoyo y actualmente ninguna empresa lo está haciendo”

Aunque Facebook haya hecho bien en invertir en IA para mitigar la horrible labor de los moderadores, no ha obrado con la debida transparencia sobre las condiciones de trabajo y la carga psicológica que estas personas deben soportar.

Un portavoz de Facebook admitió que puede resultar un trabajo muy duro y aseguró que Facebook tiene a disposición de todo el equipo de moderación servicios de apoyo psicológico y profesionales del bienestar.

Sin embargo, en ningún momento especifican en qué consisten exactamente esos recursos ni cuántas personas se benefician de ellos. Pese a que en Facebook son aficionados a llevar a cabo experimentos psicológicos con sus usuarios, a día de hoy todavía no han publicado ningún informe sobre los efectos psicológicos que tiene el visualizar lo peor de la humanidad a diario.

“Como categoría profesional, necesitan mucho más apoyo y actualmente ninguna empresa lo está haciendo”, señala Lo. “Facebook debe mostrarse más transparencia respecto al apoyo que están prestando a los moderadores y ayudarles a mantener intacta su salud mental durante el desempeño de un trabajo a las claras traumatizante”.

http://ift.tt/2qVo74d

Anuncios

Y tu que opinas???

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s