đŸ‡ș🇾 La sociĂ©tĂ© de « police prĂ©dictive » Voyager Labs devient suspecte aux yeux de Facebook

đŸ‡ș🇾 La sociĂ©tĂ© de « police prĂ©dictive » Voyager Labs devient suspecte aux yeux de Facebook

Le rĂ©seau social de Mark Zuckerberg cherche Ă  interdire Ă  Voyager Labs d’utiliser Facebook et Instagram pour y collecter des informations. Cette entreprise avait dĂ©jĂ  Ă©tĂ© Ă©pinglĂ©e en 2021 pour avoir collaborĂ© avec la police de Los Angeles afin de tester des pratiques controversĂ©es de « police prĂ©dictive ».

Meta, la maison mĂšre du rĂ©seau social Facebook, ne veut plus entendre parler de Voyager Labs. Elle a entamĂ©, jeudi 12 janvier, une procĂ©dure judiciaire pour interdire Ă  cette sociĂ©tĂ© d’analyse des rĂ©seaux sociaux d’utiliser Facebook ou Instagram.

Le crime de cette entreprise d’origine israĂ©lienne ? Avoir « indĂ»ment collectĂ© des donnĂ©es depuis Facebook, Instagram et d’autres plateformes », assure Meta dans un communiquĂ© annonçant l’action en justice.

Faux comptes pour vrai aspirateur de donnĂ©es

Voyager Labs, qualifiĂ©e de sociĂ©tĂ© « d’extraction de donnĂ©es et de surveillance » par Facebook, est accusĂ©e d’avoir obtenu ces informations en crĂ©ant de faux comptes afin de pouvoir avoir accĂšs Ă  des groupes et des pages Facebook privĂ©s. Un comportement qui contreviendrait aux rĂšgles d’utilisation du rĂ©seau social de Mark Zuckerberg.

Les informations ainsi glanĂ©es sont ensuite passĂ©es Ă  la moulinette des algorithmes maison de Voyager Labs pour obtenir « une meilleure comprĂ©hension des interactions et des relations entre les individus », d’aprĂšs le site officiel de cette entreprise.

Une formulation policĂ©e du cƓur de mĂ©tier de cette structure : ĂȘtre une Madame Irma 2.0 du comportement humain. C’est pour cet aspect prĂ©dictif que Voyager Labs s’est fait Ă©pingler une premiĂšre fois en 2021.

Le quotidien britannique The Guardian en avait fait l’incarnation d’un nouvel « écosystĂšme d’entreprise tech » vendant du rĂȘve dopĂ© Ă  l’intelligence artificielle Ă  des autoritĂ©s policiĂšres en quĂȘte d’outils pour mieux prĂ©venir ou prĂ©dire la criminalitĂ©.

En l’occurrence, la police de Los Angeles avait testĂ© pendant plusieurs mois le systĂšme de « police prĂ©dictive » de Voyager Labs en 2019. Par la suite, les forces de l’ordre californiennes avaient nĂ©gociĂ© pendant plus d’un an la signature d’un contrat Ă  long terme qui n’a finalement pas abouti en raison de rĂ©ductions budgĂ©taires liĂ©es Ă  la pandĂ©mie de Covid-19.

« Voyager Labs appartient Ă  cette famille d’entreprises dont certaines sont devenues trĂšs grandes et connues – comme Palantir ou PredPol – qui assurent utiliser la puissance des algorithmes pour faciliter le travail de la police en analysant les donnĂ©es publiques disponibles sur Internet », rĂ©sume Griff Ferris, spĂ©cialiste de l’utilisation de l’intelligence artificielle dans le domaine de la justice criminelle pour l’ONG britannique Fair Trials.

Chasser des « terroristes » ou contrÎler une épidémie

Voyager Labs proposait de pousser le bouchon de la surveillance des rĂ©seaux un peu plus loin, d’aprĂšs les documents internes obtenus par le Brennan Center for Justice, une association amĂ©ricaine de soutien juridique.

Leurs arguments de vente suggĂ©raient, notamment, d’utiliser des faux profils pour effectuer des missions infiltrĂ©es numĂ©riques afin d’avoir accĂšs Ă  des espaces privĂ©s sur les rĂ©seaux sociaux. Voyager Labs affirmait que cette chasse aux informations – donnĂ©es d’identitĂ©, photos, messages, conversations – permettait Ă  ses algorithmes de prĂ©dire quels individus Ă©taient les plus susceptibles de commettre un crime ou, par exemple, de basculer dans le terrorisme.

À l’appui de ses dires, la sociĂ©tĂ© avance notamment le cas de Bahgat Saber, un ressortissant Ă©gyptien vivant Ă  New York et proche des FrĂšres musulmans qui avait appelĂ©, au dĂ©but de la pandĂ©mie de Covid-19, Ă  « contaminer volontairement les employĂ©s des ambassades et consulats Ă©gyptiens ». En analysant sa toile de relations sur Facebook et Twitter, Voyager Labs soutient que cet individu prĂ©sentait une menace terroriste car il connaissait au moins deux employĂ©s du gouvernement amĂ©ricain susceptibles d’ĂȘtre influencĂ©s.

Voyager Labs permettrait aussi de mieux contrĂŽler les pandĂ©mies comme celle du Covid-19. Avec un opportunisme certain, la sociĂ©tĂ© explique ainsi dans sa prĂ©sentation de 2020 avoir reconstruit les interactions sociales de Mattia – un Italien identifiĂ© « comme le patient zĂ©ro de l’épidĂ©mie en Italie » (alors qu’il ne serait au mieux que le patient 1
 et encore) – pour comprendre comment le virus s’est propagĂ© dans le pays. RĂ©sultat : le plus probable serait qu’il a contaminĂ© en priorité  ses collĂšgues de bureau.

Culpabilité par association

Les forces de l’ordre de Los Angeles semblent avoir utilisĂ© cette machine Ă  prĂ©diction pour analyser « 500 profils d’utilisateurs de Facebook et des milliers de messages », souligne The Guardian. Dans les documents obtenus par le Brennan Center for Justice, un policier affirme que cet outil aurait permis d’identifier « quelques nouvelles personnes d’intĂ©rĂȘt ».

« Tout cela ressemble quand mĂȘme beaucoup Ă  un systĂšme de culpabilitĂ© par association ou par amitiĂ© qui n’est pas trĂšs soucieux de la prĂ©somption d’innocence », regrette Griff Ferris. Il suffirait d’ĂȘtre ami sur Facebook avec les mauvaises personnes pour se retrouver dans le collimateur de cet outil. « Attention Ă  ne pas confondre corrĂ©lation et causalitĂ©. Ce n’est pas parce qu’il existe un lien avec des individus suspects ou parce qu’il y a eu des messages troublants qu’il va forcĂ©ment y avoir passage Ă  l’acte », poursuit cet expert.

Voyager Labs se dĂ©fend en assurant remettre simplement au goĂ»t numĂ©rique du jour le travail de toujours de la police : essayer d’établir des connexions qui font avancer une enquĂȘte. La sociĂ©tĂ© y parviendrait plus vite et en analysant davantage de donnĂ©es grĂące aux algorithmes.

Un argument avancé par la plupart des sociétés qui vendent ces solutions de « police prédictive », rappelle le Brennan Center for Justice, qui a listé tous les commissariats qui ont eu recours à des solutions équivalentes.

Le souci est qu’il s’agit de « sociĂ©tĂ©s privĂ©es Ă©chappant Ă  tout contrĂŽle extĂ©rieur et faisant le travail d’organismes publics qui, eux, doivent rendre des comptes sur leurs mĂ©thodes », rappelle Griff Ferris. Les internautes dont l’activitĂ© en ligne est ainsi Ă©pluchĂ©e ne bĂ©nĂ©ficient donc pas des mĂȘmes protections que les personnes soumises Ă  une enquĂȘte en bonne et due forme de la police.

Un ami sur Facebook n’a, en outre, pas la mĂȘme valeur qu’une connaissance dans la vraie vie. « Dans le monde hyperconnectĂ© dans lequel nous Ă©voluons, le fait d’avoir des ‘amis’ sur Facebook ne signifie plus grand-chose. Il faut vraiment disposer d’une base de donnĂ©es suffisamment importante et d’un algorithme de qualitĂ© pour rĂ©ussir Ă  faire remonter des connexions rĂ©ellement significatives », note Griff Ferris.

Hypocrisie de Facebook ?

C’est le problĂšme avec les « algorithmes maison » de Voyager Labs, Palantir ou autres. Ce sont des boĂźtes noires dont personne ne connaĂźt rĂ©ellement le contenu et le fonctionnement et qui, utilisĂ©es par les forces de l’ordre, peuvent avoir des consĂ©quences importantes sur la vie des individus. « On sait que ce type d’outil a dĂ©jĂ  servi pour Ă©tablir si un suspect doit rester en garde Ă  vue ou pas, pour estimer la durĂ©e d’une peine, etc. », souligne Griff Ferris.

Mais Voyager Labs n’est pas le seul Ă  ĂȘtre sur le banc des accusĂ©s dans cette affaire. Pourquoi Facebook a-t-il attendu prĂšs de deux ans avant de sĂ©vir contre cette entreprise ? « On a l’impression que Facebook agit surtout en gardien du temple de donnĂ©es qu’il ne veut plus partager avec d’autres », estime Griff Ferris.

Ce spĂ©cialiste rappelle, en effet, que le rĂ©seau social utilise des mĂ©thodes trĂšs similaires pour analyser les comportements probables de ses utilisateurs. À cette diffĂ©rence prĂšs qu’il n’agit pas pour le compte de forces de l’ordre, mais pour des publicitaires et des marques qui veulent savoir quels sont les internautes les plus susceptibles d’acheter leurs produits.

D’aprĂšs cet expert, les autoritĂ©s de rĂ©gulation sont encore trop aux abonnĂ©s absents. Il n’y a aucune raison pour des entreprises comme Voyager Labs de ne pas proposer leurs services Ă  des policiers qui en redemandent, sauf Ă  mettre des limites rĂ©glementaires Ă  ces pratiques. Des ONG comme Access Now ou Fair Trials militent d’ailleurs pour que cette question soit abordĂ©e dans l’AI Act – la nouvelle rĂ©glementation europĂ©enne sur l’intelligence artificielle actuellement en discussion Ă  Bruxelles – et qu’il y ait une interdiction pure et simple de la « police prĂ©dictive ».

France 24

error: Oups... contenu protégé ;)