Siri, Google… Les assistants vocaux de nos téléphones nous espionnent-ils ?
Le lanceur d’alerte Thomas Le Bonniec et le journaliste de Télérama Olivier Tesquet expliquent lundi dans « Culture Médias » comment Apple et Google traitent les données récoltées depuis leurs assistants vocaux. Un travail secret qui questionne le respect de notre vie privée par ces grandes firmes des nouvelles technologies.
Que se passe-t-il quand nous posons une question à Siri ou « Ok Google », les assistants vocaux de nos téléphones portables ? Le moins que l’on puisse dire, c’est que les grandes entreprises du secteur comme Apple et Google restent plutôt secrètes sur le sujet. Thomas Le Bonniec a travaillé sur le traitement des données ainsi récoltées. Ce lanceur d’alerte a aidé Olivier Tesquet, journaliste à Télérama, dans son enquête sur le sujet. Ils nous alertent lundi dans Culture Médias sur les risques des assistants vocaux pour notre vie privée.
« Il faut nourrir la machine, et pour la nourrir il faut des rouages humains, dont j’ai fait partie. » C’est ainsi que Thomas Le Bonniec résume ses 10 semaines passées, entre avril et mai 2019, dans un data center irlandais d’un sous-traitant d’Apple. Son travail consistait à écouter et traiter les enregistrements issus des requêtes faites via l’assistant vocal Siri.
1.300 enregistrements par jour et par employé
Un travail que l’entreprise à la pomme voulait garder secret. « La clause de confidentialité était très claire : on ne pouvait parler de notre travail ni entre collègues, ni à notre famille, ni à nos amis. Il fallait que l’on reste silencieux », explique Thomas Le Bonniec.
Le Français devait traiter au minimum 1.300 enregistrements personnels par jour, qui duraient chacun d’une seconde à deux minutes. Un traitement qui visait à vérifier et améliorer la compréhension des enregistrements par Siri, mais aussi à annoter les mots-clés prononcés susceptibles d’intéresser Apple : noms et numéros des contacts, noms de lieux, d’artistes, etc.
« Toutes les grandes entreprises agissent de la même manière »
Thomas Le Bonniec a ainsi eu accès à l’intimité des utilisateurs de Siri. « Il y avait de la sexualité, de la pornographie, des choses très intimes comme lorsque des gens parlent de leur cancer, de sclérose en plaque, de chimiothérapie, ou de choses sur leurs relations familiales », se souvient-il. Un contenu d’autant plus intime que les assistants vocaux se déclenchent régulièrement par erreur.
Pour le journaliste Olivier Tesquet, qui a enquêté sur le sujet, ce mode de traitement des données privées est très répandu. « Toutes les grandes entreprises qui ont des assistants vocaux agissent de la même manière, parce que pour améliorer leurs réponses il faut les entraîner. La seule manière de le faire est d’avoir des oreilles humaines », indique-t-il. « A force du travail invisible d’humains, on améliore la machine », complète Thomas Le Bonniec.
Selon ce dernier, les choses n’ont que peu changé depuis 2019 et son départ du sous-traitant d’Apple pour cause de burn-out. « Il y a eu quelques changements, cosmétiques et marginaux », estime-t-il. « Apple a décidé de se passer de sous-traitants. Ils vont apparemment masquer les noms et les numéros de téléphones des enregistrements au moment de leur traitement. Surtout, les utilisateurs doivent confirmer qu’ils veulent bien participer à l’amélioration du service ».
Selon lui, ces changements ne règlent pas le problème du respect de la vie privée. Il rappelle que des centaines de millions d’enregistrements ont été traités dans le monde avant la mise en place de ces nouvelles règles.
Par Alexis Patri – Europe1