Seguridad

Siri escucha tus discusiones y relaciones sexuales, revela The Guardian

Siri escucha tus relaciones sexuales

Siri escucha con regularidad información médica confidencial o grabaciones de parejas que tienen relaciones sexuales, como parte de su trabajo que proporciona control de calidad o “clasificación”.

Aunque Apple no lo divulga explícitamente en su documentación de privacidad orientada al consumidor, una pequeña proporción de las grabaciones de Siri se transfieren a contratistas que trabajan para la compañía en todo el mundo. La tarea de estas personas consiste en calificar las respuestas en base a factores como si la activación del asistente de voz fue deliberada o accidental, si la consulta era algo en lo que se podía esperar que Siri ayudara y si la respuesta de Siri era apropiada.

Apple dice que los datos “se utilizan para ayudar a Siri y al dictado … a comprenderlo mejor y reconocer lo que dice”, pero según ha publicado The Guardian la compañía no declara explícitamente que ese trabajo es realizado por personas que escuchan las grabaciones. Apple ha clarado que una pequeña parte de las solicitudes de Siri se analizan para mejorar Siri y el dictado.

“Las solicitudes de los usuarios no están asociadas con el ID de Apple del usuario. Las respuestas de Siri se analizan en instalaciones seguras y todos los revisores tienen la obligación de cumplir con los estrictos requisitos de confidencialidad de Apple”. La compañía agregó que un subconjunto aleatorio muy pequeño, menos del 1% de las activaciones diarias de Siri, se usan para tal fin.

Cuando Alexa se vuelve loca: habla de sexo y propone matar a padres adoptivos

Un informante que trabaja para la firma, que solicitó permanecer en el anonimato debido a los temores sobre su trabajo, expresó su preocupación por esta falta de divulgación, especialmente dada la frecuencia con la que las activaciones accidentales recogen información personal extremadamente sensible.

El asistente puede activarse cuando escucha el sonido de una cremallera o una palabra de alerta. “Ha habido innumerables casos de grabaciones que muestran discusiones privadas entre médicos y pacientes, negocios, aparentemente asuntos criminales, encuentros sexuales, etc. Estas grabaciones van acompañadas de datos del usuario que muestran la ubicación, los datos de contacto y los datos de la aplicación”, revelaba el informante.

Entre los dispositivos, el Apple Watch y el altavoz inteligente HomePod de la empresa son las fuentes más frecuentes de grabaciones erróneas. “La regularidad de los disparadores accidentales en el reloj es increíblemente altaEl reloj puede grabar algunos fragmentos de código que durarán 30 segundos, no mucho tiempo, pero se puede obtener una buena idea de lo que está pasando”.

El personal es instado a informar las activaciones accidentales “pero solo como un problema técnico”, sin procedimientos específicos para tratar grabaciones sensibles. “Se nos alienta a alcanzar objetivos y a terminar el trabajo lo más rápido posible”. 

Por desgracia, Apple no es la única: el pasado mes de abril, se reveló que Amazon empleaba personal para escuchar algunas grabaciones de Alexa y, a principios de este mes, se descubrió que los trabajadores de Google estaban haciendo lo mismo con el Asistente de Google.

Fuente | The Guardian

Te recomendamos

Sobre el autor

Andrea Núñez-Torrón Stock

Licenciada en Periodismo y creadora de la revista Literaturbia. Entusiasta del cine, la tecnología, el arte y la literatura.