Seguridad

Renfe quería instalar cámaras capaces de detectar el origen étnico e incluso el estado de ánimo

Renfe quería instalar cámaras capaces de detectar el origen étnico e incluso el estado de ánimo

Renfe ha anulado un pliego técnico para instalar un programa sobre las cámaras de vigilancia en sus estaciones de Cercanías. El sistema informático pretendía ayudar a comprobar el “origen étnico” e incluso el “estado de ánimo” de sus pasajeros.

Renfe quería instalar unas cámaras capaces de detectar el origen étnico e incluso el estado de ánimo de sus pasajeros en varias estaciones de Cercanías. Después de que este miércoles lo haya adelantado El Confidencial, la operadora ferroviaria ha anulado el pliego técnico.

Según avanzaba El Confidencial, el pliego técnico —ya anulado e inaccesible en la Plataforma de Contratación Pública— detallaba los requisitos de un contrato de hasta 781.000 euros que pretendía instalar un programa informático que se operaría sobre las cámaras que ya hay instaladas en varias estaciones de Cercanías.

Dicho pliego técnico venía firmado por la Gerencia de Tecnología y de Sistemas Lógicos de la Dirección General de Seguridad, Autoprotección y Prevención de Riesgos de Renfe. Es la continuación, en realidad, de un piloto tecnológico que se comenzó a implementar a mediados del año pasado, recuerda el citado diario.

Así, el software a implementar tenía que ser capaz de comprobar el aforo de los andenes cada medio minuto así como configurar un mapa de calor de los mismos. También debería servir para detectar desmayos, caídas a las vías, así como para comprobar si los viandantes llevan mascarilla, llevan maletas u otros artefactos, como bicicletas o patinetes.

El sistema de cámaras también sería capaz de advertir si alguna persona ha intentado colarse por los accesos a los andenes así como determinar unos “atributos” de los pasajeros: “edad, género, origen étnico, tipo de ropa, viajan solos/niños/grupos numerosos, estado de ánimo (felices, tristes, cansados, sin determinar)”.

Portland abandera la prohibición de la tecnología de reconocimiento facial

Las estaciones de Cercanías en las que se iba a implementar este sistema eran 25, la mayoría en Madrid y Cataluña.

La última fase del proyecto habría entrado en vigor seis meses después de que se adjudicase esta licitación, e implicaría la puesta en marcha de una inteligencia artificial capaz de cruzar los datos recabados mediante estas cámaras así como los procedentes de otras fuentes —como las redes sociales— para tratar de prevenir riesgos y amenazas a las infraestructuras ferroviarias.

Después de que El Confidencial adelantase la noticia, Renfe ha retirado el pliego técnico de su web.

A finales del mes pasado, varios expertos en privacidad abundaban en un congreso cómo Europa está trabajando en instalar sistemas de reconocimiento facial y tecnologías biométricas para proteger sus fronteras.

“La idea de una Europa fortaleza no es nueva”, advertía Petra Molnar, investigadora de la York University de Toronto, Canadá. “Pero ahora nos enfrentamos a una tecnología expansiva que la convierte en un panóptico”.

Un panóptico es un tipo de arquitectura carcelaria en la que un guardián, desde una torre de control, puede vigilar a todos los presos en sus celdas. Para ello, los cubículos se disponen alrededor del torreón. Hoy día, las tecnologías de vigilancia que se están implementando en Europa serían ese torreón.

También a mediados del año pasado AlgorithmWatch advertía cómo en una estación de autobuses de Madrid se llevaba años empleando tecnologías de reconocimiento facial con propósitos similares al pliego técnico anulado por Renfe, sin que muchos de los ciudadanos que hacen uso de esta infraestructura lo supieran siquiera.

Fuente | El Confidencial.

*Artículo original publicado por Alberto R. Aguiar en Business Insider

Te recomendamos

Sobre el autor

Andrea Núñez-Torrón Stock

Licenciada en Periodismo y creadora de la revista Literaturbia. Entusiasta del cine, la tecnología, el arte y la literatura.