Facebook tendrá 3000 moderadores para supervisar el contenido inapropiado


Después de los recientes casos de publicar contenidos violentos con suicidios y homicidios, Facebook se tomarán 3000 moderadores extra que controlarán el contenido publicado en la popular red social.

Fue el mismo Mark Zuckerberg quien comunico la decisión en base a los recientes acontecimientos y la polémica que se produjo. En orden cronológico el último caso se refiere al suicidio de un hombre de 49 años en Alabama que ha decidido mostrar en vivo su acto extremo.

Los 3.000 nuevos empleados para monitorear el contenido publicado se añadiran a los 4500 ya activos para un total de 7500 personas cuyo trabajo será quitar rápidamente el contenido prohibido, glorificando el odio, la violencia o la explotación de menores.

Zuckerberg admitió los defectos del algoritmo que elimina el vídeo en cuestión tarda demasiado, dejando la posibilidad de ser guardado o compartido.

Estamos trabajando para hacer mas simple la señalizacion de vídeos y contenidos inapropiados. Para mantener segura nuestra comunidad debemos ser capaces de intervenir rápidamente no sólo para borrar un post, sino también para ayudar a cualquier persona que pueda necesitar ayuda.

Con este fin, Facebook ya ha proporcionado acceso público para todos los usuarios la herramientas de prevención del suicidio y ha establecido un sistema de inteligencia artificial que pueda identificar a los usuarios que demuestran tendencia suicida.

La integración del nuevo personal es sólo el primer paso hacia una mayor seguridad en la red social donde algunos sistemas automatizados no proporcionan suficientes garantía.

Previous Apple Watch supera a Fitbit: ahora es el wearable mas vendido del mundo
Next Facebook interesado en la industria de la TV: lanzara vídeos originales con muchos proyectos