💬 OpenAI prĂ©sente un nouvel outil capable de cloner la voix de n’importe qui

💬 OpenAI prĂ©sente un nouvel outil capable de cloner la voix de n’importe qui

OpenAI, gĂ©ant de l’intelligence artificielle (IA) gĂ©nĂ©rative et Ă©diteur de ChatGPT, a prĂ©sentĂ© vendredi un outil de clonage de voix, dont l’utilisation sera restreinte pour empĂȘcher des fraudes ou des crimes, comme l’usurpation d’identitĂ©. BaptisĂ© “Voice Engine”, ce modĂšle d’IA peut reproduire la voix d’une personne Ă  partir d’un Ă©chantillon audio de 15 secondes, selon un communiquĂ© d’OpenAI sur les rĂ©sultats d’un test Ă  petite Ă©chelle.

“Nous reconnaissons que la capacitĂ© de gĂ©nĂ©rer des voix ressemblant Ă  celles de personnes comporte de sĂ©rieux risques, qui sont particuliĂšrement importants en cette annĂ©e Ă©lectorale”, a dĂ©clarĂ© l’entreprise basĂ©e Ă  San Francisco. “Nous travaillons avec des partenaires amĂ©ricains et internationaux issus du gouvernement, des mĂ©dias, du divertissement, de l’éducation, de la sociĂ©tĂ© civile et d’autres secteurs et nous prenons en compte leurs commentaires au fur et Ă  mesure que nous dĂ©veloppons l’outil”.

En cette annĂ©e Ă©lectorale cruciale dans le monde, les chercheurs en dĂ©sinformation craignent une utilisation abusive des applications d’IA gĂ©nĂ©rative (production automatisĂ©e de textes, images, etc), et notamment des outils de clonage de voix, qui sont bon marchĂ©, faciles Ă  utiliser et difficiles Ă  retracer.

Approche “prudente”

OpenAI a assurĂ© avoir adoptĂ© “une approche prudente et informĂ©e” avant une diffusion plus large du nouvel outil “en raison du potentiel d’utilisation abusive des voix synthĂ©tiques”.

Cette prĂ©sentation prudente intervient aprĂšs un incident politique majeur, quand un consultant travaillant pour la campagne prĂ©sidentielle d’un rival dĂ©mocrate de Joe Biden a mis au point un programme automatisĂ© qui usurpait l’identitĂ© du prĂ©sident amĂ©ricain, en campagne pour sa rĂ©Ă©lection.

La voix imitant celle de Joe Biden appelait des Ă©lecteurs pour les inciter Ă  s’abstenir lors de la primaire du New Hampshire.

Les États-Unis ont depuis interdit les appels par des voix clonĂ©es, gĂ©nĂ©rĂ©es par de l’IA, afin de lutter contre les arnaques politiques ou commerciales.

Mesures de sécurité

OpenAI a prĂ©cisĂ© que les partenaires qui testent “Voice Engine” ont acceptĂ© des rĂšgles exigeant notamment le consentement explicite et informĂ© de toute personne dont la voix est dupliquĂ©e et la transparence pour les auditeurs: ils doivent savoir clairement que les voix qu’ils entendent sont gĂ©nĂ©rĂ©es par l’IA.

“Nous avons mis en place un ensemble de mesures de sĂ©curitĂ©, y compris une marque en filigrane pour pouvoir retracer l’origine de tout son gĂ©nĂ©rĂ© par Voice Engine, ainsi qu’un contrĂŽle proactif de son utilisation”, a insistĂ© OpenAI.

En octobre dernier, la Maison Blanche avait dĂ©voilĂ© des rĂšgles et principes pour encadrer le dĂ©veloppement de l’IA, dont celui de la transparence. Joe Biden s’était Ă©mu Ă  l’idĂ©e que des criminels ne s’en servent pour piĂ©ger des personnes en se faisant passer pour des membres de leur famille.

7sur7