Comment l’intelligence artificielle pourrait bientôt hacker notre monde
D’après le cryptologue Bruce Schneier, les IA vont avoir la capacité de trouver des failles dans les systèmes de nos sociétés, qu’ils soient financiers, sociaux, politiques, etc. Un risque qu’il faut d’ores et déjà prendre en considération.
Des Afro-Américains trop souvent jetés en prison, des salariés qui n’obtiennent plus de prêts bancaires, des tensions exacerbées en raison de contenus toujours plus clivants sur les réseaux sociaux… L’intelligence artificielle est déjà en train d’influer de façon négative sur notre vie. Mais ce n’est là qu’un début, estime le cryptologue et expert en sécurité Bruce Schneier.
Dans un récent essai intitulé The coming of AI hackers (L’arrivée des intelligences artificielles hackers), il pense que les algorithmes d’intelligence artificielle vont continuer à créer du désordre à grande échelle, car ils ont une tendance naturelle à subvertir n’importe quel système, c’est-à-dire à l’utiliser d’une manière qui n’était pas prévue au départ. Ce qui est aussi une excellente définition du terme « hacking ».
Les IA trouveront toujours la petite bête
La raison, selon Bruce Schneier, est simple. Il y a une différence énorme entre les hommes et les intelligences artificielles quand il s’agit de définir et d’explorer un système.
« Les IA ne résolvent pas les problèmes de la même manière que le font les gens. Elles vont forcément trouver des solutions que nous, les humains, n’aurons jamais anticipées », explique Bruce Schneier.
D’une part, les IA sont capables d’explorer des champs de solutions beaucoup plus vastes et variés, en raison de leur puissance de calcul.
« Elles explorent des chemins que nous n’aurions jamais pris en considération », souligne l’auteur.
D’autre part, les humains sont incapables de définir d’une manière complète les limites d’un système ou les objectifs d’une IA.
« Nous ne décrivons jamais toutes les options. Nous n’indiquons jamais toutes les mises en garde, exceptions et réserves. Nous n’identifions jamais toutes les possibilités de hacking. Nous ne le pouvons pas », constate Bruce Schneier.
Les chercheurs en intelligence artificielle sont confrontés à ce genre de situation tous les jours. Ainsi, l’un d’entre eux a voulu entraîner l’IA de son robot aspirateur pour qu’il ne heurte pas d’objets, autrement dit que ses capteurs de chocs soient le moins sollicités possible. Résultat : l’IA a appris à rouler vers l’arrière… où le robot était dépourvu de capteurs.
La société se numérise… et donc se fragilise
Cet exemple peut sembler un peu ridicule, mais imaginez ce qu’une IA serait capable de faire avec des systèmes qui structurent notre vie quotidienne. Elle pourrait trouver les failles dans les lois sur l’imposition que personne n’a jamais vue et qui permettrait à coup sûr de frauder le fisc. Dans le domaine du débat politique en ligne, une IA telle que GPT-3 pourrait manipuler à grande échelle les biais cognitifs de dizaines de millions d’électeurs sans que ces derniers ne puissent s’en apercevoir.
Évidemment, les humains n’ont pas attendu l’intelligence artificielle pour faire de la fraude fiscale ou faire de la propagande. Mais comme ces systèmes sont désormais informatisés, l’IA est clairement avantagé. Il pourra trouver beaucoup plus de failles et beaucoup plus vite. Et ce risque concernera aussi tous les autres aspects de notre vie, car presque tout est désormais informatisé et connecté, d’une manière ou d’une autre, à une intelligence artificielle.
« Les voitures, les appareils domestiques, les téléphones : ce sont tous des ordinateurs. Tous nos systèmes sociaux — finance, impôts, réglementations, élections — sont des systèmes sociotechniques complexes qui s’appuient sur des réseaux et des ordinateurs. Ils sont donc vulnérables au hack », estime Bruce Schneier.
01net