La red social más en boga del planeta, la archiconocida Instagram, desplegará sus armas de Inteligencia Artificial para detectar hashtags o texto dañino que pueda resultar sensible u ofensivo para los usuarios. Así lo anunciaba hoy la compañía, revelando que generará una notificación para advertir al usuario de que dicho subtítulo se parece a otros categorizados como dañinos e instará al internauta a editarlo, aunque también les dará la opción de publicarlo sin cambios.
La nueva característica se basa en una herramienta similar impulsada por IA que Instagram presentó para el apartado comentarios el pasado mes de julio. La compañía dice que empujar a las personas para que reconsideren la publicación de comentarios potencialmente dañinos ha tenido resultados “prometedores” en la lucha de la compañía contra el acoso online.
Instagram ha comenzado a esconder los Me gusta: ¿ya te afecta?
Esta es solo la última de un ambicioso paquete de medidas que Instagram ha estado preparando en los últimos tiempos para abordar la problemática del acoso escolar en su plataforma, convertida en un caldo de cultivo para el ciberbullying. En octubre, el servicio lanzó una nueva función de “Restringir” que permite a los usuarios prohibir su intimidación, y el año pasado, comenzó a usar IA para filtrar comentarios ofensivos y detectar de manera proactiva el acoso tanto en las fotos como en los subtítulos.
A diferencia de sus otras herramientas de moderación, la diferencia aquí es que Instagram depende de los usuarios para detectar cuándo uno de sus comentarios cruza la línea. Por el momento, Instagram ha aportado que la nueva característica se está implementando en “países seleccionados”, pero se expandirá globalmente en los próximos meses.
Fuente | The Verge