0

Facebook busca contratar 3 mil personas para revisar el contenido de las publicaciones

Pin It

En respuesta a una alarmante alza de transmisiones de videos violentos, el presidente ejecutivo de Facebook, Mark Zuckerbeg, anunció en un mensaje en la red social que su empresa contratará a 3,000 personas adicionales para monitorear el contenido violento y actuar lo más rápido posible para removerlo o buscar ayuda.

La decisión se conoce luego de que videos en vivo y grabados cargados a la red mostraron a personas causando daño a otras o a sí mismas. La red social ha sido duramente criticada por el tiempo que se demoró en remover el contenido cuestionable de su plataforma después de haber sido reportado.

En el caso de un hombre en Cleveland que le disparó fatalmente a otro en cámara, el video estuvo en la red por casi dos horas. En el caso de una hombre tailandés que transmitió en vivo el asesinato de su hija de 11 meses, el video estuvo disponible por 24 horas en la red.

El anuncio de Zuckerberg no menciona nada sobre límites a las herramientas de transmisiones en vivo de Facebook, una función conocida como Live, con lo que la solución propuesta solo se enfocará en reducir el tiempo que le lleva a la red social identificar y remover el material violento o sensible.

“En las últimas semanas, hemos visto a personas que se lastiman a sí mismas y a otras en Facebook, ya sea en directo o en un video publicado más tarde. Es desgarrador, y he estado reflexionando sobre cómo podemos hacerlo mejor para nuestra comunidad”, escribió Zuckerberg en su mensaje.

La red social ya tiene a 4.500 personas trabajando en lo que denomina “operaciones comunitarias” a las cuales se sumarán los nuevos contratados en el transcurso de un año.

Con un promedio 1.200 millones de usuarios activos al día, la tarea de revisar millones de videos, fotos y mensajes es titánica. Además de los monitores humanos, la empresa se ha apoyado en algoritmos para identificar contenido cuestionable y ha empezado a desarrollar herramientas de inteligencia artificial que la ayuden a determinar con rapidez si un material no se ajusta a sus políticas, incluyendo el discurso de odio y la explotación infantil.

“Seguiremos trabajando con los grupos comunitarios locales y las fuerzas policiales que están en mejor posición de ayudar a alguien si lo necesitan, ya sea porque están a punto de hacerse daño o porque están en riesgo de que otros les hagan daño”, dijo.

Además del personal adicional, Zuckerberg aseguró que la red simplificará los procesos para reportar problemas y el que siguen los monitores de la empresa para determinar qué publicaciones violan los estándares de Facebook. También facilitará que su personal contacte a las autoridades si detectan riesgo.

El ejecutivo citó un caso registrado la semana pasada en la que un individuo manifestó en el servicio Live de la red que contemplaba quitarse la vida. “Inmediatamente llamamos a la policía, y pudimos evitar que se lastimara. En otros casos, no fuimos tan afortunados”, agregó Zuckerberg.

[nvinoticias.com]

Pin It

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *