🇺🇸 Facebook dĂ©mantèle l’Ă©quipe chargĂ©e d’analyser les effets nĂ©fastes de ses rĂ©seaux sociaux

🇺🇸 Facebook dĂ©mantèle l’Ă©quipe chargĂ©e d’analyser les effets nĂ©fastes de ses rĂ©seaux sociaux

L’entreprise Meta, maison-mère de Facebook et Instagram, a dĂ©mantelĂ© l’Ă©quipe chargĂ©e d’Ă©tudier les effets nĂ©fastes de ces rĂ©seaux sociaux sur leurs utilisateurs, indique le Wall Street Journal jeudi 8 septembre. BaptisĂ© groupe « d’innovation responsable », cette Ă©quipe Ă©tait notamment composĂ©e d’une vingtaine d’ingĂ©nieurs et de spĂ©cialistes de l’Ă©thique.

Meta a indiquĂ© auprès du Wall Street Journal que « la majorité » de ces employĂ©s seront dirigĂ©s vers d’autres services pour y effectuer des missions similaires. Les objectifs de cette Ă©quipe seront Ă©galement poursuivis.

L’Ă©quipe « innovation responsable » avait pour but d’identifier rapidement les problèmes liĂ©s aux produits de l’entreprise afin d’informer les Ă©quipes chargĂ©es de les rĂ©soudre. Elle devait aussi les anticiper. Il y a deux ans, Margaret Sewart, chargĂ©e de l’Ă©quipe en question, la dĂ©crivait comme un « mĂ©decin gĂ©nĂ©raliste », qui pose le diagnostic et oriente vers un spĂ©cialiste.

Pleins phares sur le métavers

Les produits comme Facebook, Instagram, Messenger et WhatsApp, mais aussi les technologies Ă©mergentes comme la rĂ©alitĂ© virtuelle et la rĂ©alitĂ© augmentĂ©e, ont le potentiel de changer la vie des gens de multiples façons. […] Alors que ces technologies grandissent et que l’influence de nos plateformes s’accroĂ®t, la responsabilitĂ© qui nous incombe de dĂ©tecter et Ă©viter les dangers potentiels s’accroĂ®t aussi », a-t-elle Ă©crit, en 2021, au sujet de cette Ă©quipe.

L’entreprise a prĂ©cisĂ© vouloir concentrer davantage ses ressources vers le dĂ©veloppement de son mĂ©tavers, l’univers mĂŞlant virtuel et rĂ©el, au coeur de son projet Ă  long terme. Mettre fin Ă  ce groupe entre dans cette logique. Une dĂ©cision qui interroge, alors que le mĂ©tavers commence Ă  soulever des craintes pour la sĂ©curitĂ© de ses utilisateurs, notamment du point de vue de la modĂ©ration.

BFMTV

error: Oups... contenu protégé ;)