Comment Apple va analyser vos photos pour faire la chasse aux pédocriminels ?

Comment Apple va analyser vos photos pour faire la chasse aux pédocriminels ?

Apple vient d’annoncer de nouvelles mesures pour protéger les enfants. Parmi celles-ci, un nouveau système qui permet à la firme de traquer les pédophiles en analysant les images transférées sur iCloud aux États-Unis et en signalant toutes celles répertoriées dans une base de données nationale d’images pédopornographiques.

Apple vient d’annoncer la mise en place d’une nouvelle fonction sur iPhone et iPad visant à protéger les enfants. Les images envoyées vers son stockage en ligne iCloud seront analysées afin de détecter les images pédopornographiques. Déjà lancée en phase test, elle sera étendue à tous les utilisateurs aux États-Unis avec le lancement de la mise à jour iOS 15 cet automne.

Le traitement des photos se fera en local, directement sur l’appareil de l’utilisateur. Avant d’être transférées sur son espace iCloud, elles seront soumises à une fonction de hachage, qui calcule une empreinte cryptographique. C’est cette empreinte qui sera ensuite comparée à une base de données fournie par le National Center for Missing and Exploited Children (NCMEC). Cette base de données sera directement intégrée dans iOS 15 et contiendra les empreintes de toutes les images pédopornographiques déjà répertoriées.

Une alerte est lancée au-delà d’un certain seuil

Cette méthode permet d’assurer la confidentialité des données, puisque tout le traitement est fait en local, et seule l’empreinte cryptographique est comparée. Si le système détecte une correspondance avec la base de données, il envoie le résultat ainsi que des données supplémentaires, sous forme chiffrée, dans l’iCloud avec la photo. À partir d’un certain seuil, non précisé, un employé d’Apple pourra accéder à ces images afin de déterminer si elles correspondent effectivement à de la pédopornographie. Le cas échéant, Apple désactive le compte de l’utilisateur et contacte le NCMEC.

D’autres services de stockage en ligne ont déjà mis en place des systèmes similaires. Toutefois, celui d’Apple ne peut signaler que les images déjà identifiées par les autorités. Il n’y a aucune analyse du contenu des images, et donc le système ne risque pas de signaler des parents lorsqu’ils prennent en photo leurs enfants dans le bain, par exemple.

Futura-Sciences