đŹ OpenAI prĂ©sente un nouvel outil capable de cloner la voix de n’importe qui
OpenAI, gĂ©ant de lâintelligence artificielle (IA) gĂ©nĂ©rative et Ă©diteur de ChatGPT, a prĂ©sentĂ© vendredi un outil de clonage de voix, dont lâutilisation sera restreinte pour empĂȘcher des fraudes ou des crimes, comme lâusurpation dâidentitĂ©. BaptisĂ© âVoice Engineâ, ce modĂšle dâIA peut reproduire la voix dâune personne Ă partir dâun Ă©chantillon audio de 15 secondes, selon un communiquĂ© dâOpenAI sur les rĂ©sultats dâun test Ă petite Ă©chelle.
âNous reconnaissons que la capacitĂ© de gĂ©nĂ©rer des voix ressemblant Ă celles de personnes comporte de sĂ©rieux risques, qui sont particuliĂšrement importants en cette annĂ©e Ă©lectoraleâ, a dĂ©clarĂ© lâentreprise basĂ©e Ă San Francisco. âNous travaillons avec des partenaires amĂ©ricains et internationaux issus du gouvernement, des mĂ©dias, du divertissement, de lâĂ©ducation, de la sociĂ©tĂ© civile et dâautres secteurs et nous prenons en compte leurs commentaires au fur et Ă mesure que nous dĂ©veloppons lâoutilâ.
En cette annĂ©e Ă©lectorale cruciale dans le monde, les chercheurs en dĂ©sinformation craignent une utilisation abusive des applications dâIA gĂ©nĂ©rative (production automatisĂ©e de textes, images, etc), et notamment des outils de clonage de voix, qui sont bon marchĂ©, faciles Ă utiliser et difficiles Ă retracer.
Approche âprudenteâ
OpenAI a assurĂ© avoir adoptĂ© âune approche prudente et informĂ©eâ avant une diffusion plus large du nouvel outil âen raison du potentiel dâutilisation abusive des voix synthĂ©tiquesâ.
Cette prĂ©sentation prudente intervient aprĂšs un incident politique majeur, quand un consultant travaillant pour la campagne prĂ©sidentielle dâun rival dĂ©mocrate de Joe Biden a mis au point un programme automatisĂ© qui usurpait lâidentitĂ© du prĂ©sident amĂ©ricain, en campagne pour sa rĂ©Ă©lection.
La voix imitant celle de Joe Biden appelait des Ă©lecteurs pour les inciter Ă sâabstenir lors de la primaire du New Hampshire.
Les Ătats-Unis ont depuis interdit les appels par des voix clonĂ©es, gĂ©nĂ©rĂ©es par de lâIA, afin de lutter contre les arnaques politiques ou commerciales.
Mesures de sécurité
OpenAI a prĂ©cisĂ© que les partenaires qui testent âVoice Engineâ ont acceptĂ© des rĂšgles exigeant notamment le consentement explicite et informĂ© de toute personne dont la voix est dupliquĂ©e et la transparence pour les auditeurs: ils doivent savoir clairement que les voix quâils entendent sont gĂ©nĂ©rĂ©es par lâIA.
âNous avons mis en place un ensemble de mesures de sĂ©curitĂ©, y compris une marque en filigrane pour pouvoir retracer lâorigine de tout son gĂ©nĂ©rĂ© par Voice Engine, ainsi quâun contrĂŽle proactif de son utilisationâ, a insistĂ© OpenAI.
En octobre dernier, la Maison Blanche avait dĂ©voilĂ© des rĂšgles et principes pour encadrer le dĂ©veloppement de lâIA, dont celui de la transparence. Joe Biden sâĂ©tait Ă©mu Ă lâidĂ©e que des criminels ne sâen servent pour piĂ©ger des personnes en se faisant passer pour des membres de leur famille.
7sur7