Seguridad

3.000 personas vigilarán la emisión de contenidos violentos en Facebook

Facebook controlará la emisión de contenidos violentos con 3.000 nuevos empleados

Con el objetivo de supervisar la emisión de contenidos violentos en vivo y mejorar la seguridad en la plataforma, Mark Zuckerberg ha anunciado que estudia incorporar a la plantilla a 3.000 personas encargadas de vigilar las publicaciones.

Para evitar episodios salpicados de peligro para la integridad de los usuarios, violencia física y psicológica, incitación al odio o contenidos ofensivos y discriminatorios, el CEO de Facebook ha revelado a través de la publicación de un comunicado en su perfil oficial en la red social la propuesta que tiene en mente para ampliar la plantilla con 3.000 empleados dedicados a “construir una comunidad segura, donde nadie se haga daño a sí mismo”. Estos se unirían a los 4.500 que ya trabajan para la empresa en la revisión de contenidos que violan los términos del servicio.

Acusan a Facebook de compartir información sobre usuarios inseguros

El lanzamiento y gran acogida de su herramienta Facebook Live, pensada para emitir contenido en streaming, ha llevado aparejados una serie de problemas para la red social más grande del mundo: desde la piratería de eventos deportivos a la aparición de contenidos en directo relacionados con homicidios, abusos sexuales y violaciones, agresiones y suicidios. Lógicamente, su difusión y la carencia de herramientas de la plataforma para eliminarlos de inmediato ha suscitado duras críticas, oscureciendo la reputación de la compañía.

El CEO de Facebook ha recalcado la intención de brindar ayuda a aquellos usuarios que se encuentren en situaciones difíciles o que vayan a atentar contra su integridad. Además, con las nuevas contrataciones se intentaría frenar los discursos de odio o los contenidos relacionados con la explotación infantil. Las 3.000 incorporaciones acelerarían la rapidez del proceso al revisar los millones de informes que llegan cada semana a Facebook, además de vigilar el contenido en directo y posterior a su emisión.

Uno de los principales objetivos para mejorar el funcionamiento y la seguridad en esta plataforma de uso masivo es aumentar la capacidad de respuesta y la facilidad para denunciar publicaciones ajenas que infrinjan las normas comunitarias. En muchos casos actuales, el bloqueo de la cuenta llega demasiado tarde, ya que el proceso tras la denuncia de un usuario a un contenido concreto pasa por el análisis de especialistas de la compañía. Con el fin de optimizar el proceso, Zuckerberg ha confirmado que también trabajan en el lanzamiento de nuevas herramientas para simplificar el reporte de contenido. 

Vía | The Guardian

Sobre el autor de este artículo

Andrea Núñez-Torrón Stock

Licenciada en Periodismo y creadora de la revista Literaturbia. Entusiasta del cine, la tecnología, el arte y la literatura.