Amazon se suma a las tecnológicas que cancelan las escuchas de conversaciones privadas por terceros

0
2

Todas las principales compañías tecnológicas con asistentes de voz han decidido suspender sus programas de escucha de audios privados de usuarios, entre los que había conversaciones íntimas que en muchos casos se grababan cuando el micrófono se activaba por error. Google y Apple realizaban estas escuchas y las han suspendido, así como Amazon, la última en anunciar la cancelación de sus proyectos de audición. Las conversaciones con Alexa se seguirán almacenando, pero ahora la compañía dará la opción al usuario de elegir si permiten que sus audios se incluyan en estos proyectos, según aseguró una portavoz de la firma. Una opción muy parecida a la tomada por Apple el pasado viernes.

Pero, ¿para qué se hacían estas escuchas y qué implicaban? Las tecnológicas aseguran que las audiciones se realizaban para mejorar lo que el asistente virtual era capaz de entender. Lo que ocurre es que esto suponía en la práctica que los transcriptores, subcontratados a través de terceras empresas, tuvieran acceso a conversaciones íntimas e incluso a datos personales sensibles.

En los proyectos en los que había que transcribir audios de usuarios, al tener que hacer cientos por hora, era muy difícil que pudieran relacionar las diferentes grabaciones con una misma persona. “Pero había otros proyectos en los que el sistema sí te lo ofrecía todo recopilado. Por ejemplo, te facilitaba un historial de audios y búsquedas escritas con peticiones anteriores del usuario, te dejaba ver su agenda de contactos, la ubicación casi exacta en el momento de la grabación y la lista de apps instaladas”, aseguran los ya exempleados de una de las empresas que trabajaba para Apple. La empresa de la manzana, mientras tanto, anunció la suspensión de las escuchas y anunció que iba a llevar a cabo una “revisión exhaustiva del programa global de calificación de Siri”.

CIENTOS DE TRABAJADORES BAJO PRESIÓN

Solo en España había centenares de trabajadores dedicados a estas tareas en diferentes empresas tecnológicas que trabajaban para Apple y Google. Y desde la Península, gracias a la multitud de personas de diferentes lugares del mundo que viven en sus principales ciudades, había empleados de decenas de lenguas diferentes. Entre ellas, estaban el español, el inglés, el francés y el alemán en casi todas sus variantes, idiomas asiáticos, árabe, etcétera. “Llegaba a haber unos 15 empleados por cada lengua, sobre todo de las más demandadas”, reconocen antiguos transcriptores subcontratados por Apple.

Estos cientos de empleados tenían contratos por obra y servicio y podían estar a tiempo parcial o a tiempo completo. Y el trabajo se realizaba bajo una fuerte presión, según coinciden todos los transcriptores consultados. “Tenías que cumplir un mínimo de audios escuchados por hora que variaba en función del proyecto. Y cada vez exigían más, lo que iba en detrimento de la calidad de nuestro trabajo e incluso de nuestra salud. Hubo muchos compañeros con problemas físicos y psicológicos por las condiciones que nos imponían”, aseguran los exempleados.

Pese a ello, estos proyectos ahora conocidos contradicen la versión oficial que la firma de Cupertino mantenía, en la que aseguraba que los audios no se relacionaban en ningún momento con los usuarios. La compañía explica en su política de privacidad: “Cuando un dispositivo recoge algún dato, Apple es transparente al respecto informando al usuario y los disocia del perfil del usuario”. De esta forma, la empresa intenta mantener el anonimato y la privacidad de sus clientes. Aunque en el caso de estos proyectos en los que se facilitaba al empleado externo toda la información de un mismo cliente demuestra que, pese a la asignación de códigos diferentes por audio, la empresa sí conocía a qué usuario pertenecía cada uno y podía recopilar todas sus grabaciones.

Este acceso a información personal se les daba para que los empleados pudieran mejorar las respuestas de Siri, el asistente virtual de Apple, según reconocen los propios extrabajadores. “Teníamos que comprobar que si pedía hablar con el contacto Mamá, que no llamase a otro con el nombre Maná, por ejemplo. Lo mismo con las apps y direcciones. Y el histórico de audios o las diferentes grabaciones en cadena las teníamos que usar para entender el contexto y comprobar si había peticiones recurrentes”, explican.

En el caso de las peticiones para ir a una localización específica, ya sea de forma oral o escrita, el sistema les señalaba en la parte superior la ciudad desde la que se hacía la búsqueda y la zona. “Por ejemplo: “Madrid, Puerta del Sol”, que es desde donde pedía ir a un sitio para comer, a una tienda o a un lugar en concreto”, relatan. Y en los casos en que había varias respuestas, les aparecían diferentes opciones con la distancia exacta hasta el lugar de destino. De esta forma, se podría triangular el punto casi exacto donde estaba el usuario.

Grabaciones íntimas y casos de violencia

La principal razón del parón en las audiciones de las tecnológicas es la opacidad de las compañías a la hora de informar a sus usuarios. “Parece que existe un problema de transparencia, en el sentido de que el usuario no era consciente de qué se hace con sus interacciones con el asistente virtual”, asegura Moisés Barrio, letrado del Consejo de Estado y abogado experto en derecho digital. De hecho, ni siquiera sabían que sus grabaciones de peticiones al software de cada firma podían ser escuchadas por otras personas y no solo por máquinas.

A esto hay que sumar que los micrófonos, que en principio solo se activan por un comando específico (Hola Siri, Ok Google, Alexa…), funcionaban en multitud de ocasiones de forma errónea, lo que provocaba que se grabasen infinidad de audios con charlas íntimas. “He escuchado decenas de discusiones privadas, conversaciones con el médico o redacción de contratos confidenciales. Incluso personas teniendo sexo sin saber que se les estaba grabando”, repiten diferentes transcriptores de Apple, que añaden: “Cuando se escuchaban casos de violencia de cualquier tipo, abusos y conductas suicidas lo teníamos que indicar en el sistema, aunque no sabíamos si Apple hacía algo con eso ni si llegaba a denunciarlo”.