• 25/12/2024

Siri, el asistente virtual de Apple, escucha y graba conversaciones sobre médicos, usuarios teniendo sexo y peleándose

El aparato de la empresa californiana graba todos los sonidos que haya a su alrededor, transcribe las palabras y las interpreta para ver si es una orden
29/07/2019 - 07:53hs
Siri, el asistente virtual de Apple, escucha y graba conversaciones sobre médicos, usuarios teniendo sexo y peleándose

Los asistentes virtuales cada vez son más populares, pero su utilización en nuestros móviles y en nuestros livings, en forma de altavoz inteligente, también lleva consigo una serie de dudas sobre la privacidad de sus usuarios.

Cada pocas semanas se conoce que empleados de Amazon o Google han tenido acceso a las grabaciones que realizan estos aparatos. En teoría, estas prácticas sirven para mejorar el funcionamiento de los sistemas y que las máquinas acierten con las peticiones que los usuarios realizan. Pero no dejan de ser inquietantes.

La última en sumarse a este "club de los chismes" es Apple. Un reportaje publicado en el diario inglés The Guardian ha revelado que empresas subcontratadas escuchan las conversaciones que los usuarios tienen con Siri, el asistente virtual de la compañía fundada por Steve Jobs.

En teoría, Siri se activa solo cuando se pulsa el botón adecuado del iPhone o cuando el usuario dice "Oye Siri". Sin embargo, las fuentes entrevistadas por The Guardian aseguran que el asistente se puede activar por error, como por ejemplo con el sonido de una cremallera o por una palabra similar a Siri.

Y aquí es donde viene el problema. Con Siri activo, el aparato graba todos los sonidos que haya a su alrededor, transcribe las palabras y las interpreta para ver si es una orden. Si no es capaz de entender lo que ocurre, puede que el sonido grabado sea enviado a los servidores de Apple. De esta forma puede acabar en manos de trabajadores que intenten descifrar lo que el usuario ha querido decir en realidad.

¿Qué escuchan esos trabajadores? Según The Guardian, el contenido es "innumerables casos de grabaciones con discusiones privadas entre médicos y pacientes, acuerdos comerciales, aparentemente tratos criminales, encuentros sexuales, etc.", dijo la fuente. "Estas grabaciones van acompañadas de datos del usuario que muestran la ubicación, los datos de contacto y los datos de la aplicación".

Apple ha dicho que toma medidas para proteger a los usuarios de estar conectados con las grabaciones enviadas a los contratistas. El audio no está vinculado a una ID de Apple y se revisa menos del 1% de las activaciones diarias de Siri.

Es decir, que Apple no sabe quién está hablando con Siri en ningún momento, porque crea un código que protege la identidad de los usuarios, una práctica que no llevan a cabo ni Google ni Amazon. También establece requisitos de confidencialidad para los trabajadores contratados.

Otras empresas de tecnología también han sido objeto de acusaciones similares en torno a las plataformas de voz que graban conversaciones que no debían. Amazon recientemente describió sus políticas para mantener y revisar las grabaciones en respuesta a las consultas del senador de estados Unidos Chris Coons.

Un informe de un contratista de Google informaba que los trabajadores habían escuchado conversaciones entre padres e hijos, información privada y de identificación, y al menos un posible caso de agresión sexual.

Temas relacionados