🇬🇷 ChatGPT lui affirme que son mari la trompe, elle demande le divorce

🇬🇷 ChatGPT lui affirme que son mari la trompe, elle demande le divorce

Une mère de famille grecque a demandé le divorce après que ChatGPT lui a affirmé, sans preuve, que son mari la trompait. Une décision fondée sur une interprétation de marc de café par l’intelligence artificielle, qui suscite étonnement et inquiétude.

Une prédiction technologique… et sans fondement

Douze ans de mariage, deux enfants, et un divorce demandé sur la base d’une conversation avec une IA : c’est le scénario improbable rapporté par la chaîne publique grecque ERT. Une femme grecque, persuadée que son époux entretenait une liaison, a décidé de questionner ChatGPT. Mais ce n’est pas tout : elle lui a également envoyé deux photos de marc de café, une méthode divinatoire traditionnelle.

Selon ses dires, ChatGPT aurait “déduit” que son mari la trompait avec une femme dont le prénom commencerait par la lettre “E” et qu’il projetait de la quitter. Convaincue par cette révélation, elle l’aurait immédiatement mis dehors, avant d’initier une procédure de divorce.

Un passé déjà marqué par l’irrationnel

L’époux, surpris par la décision, a confié à des médias locaux que son ex-compagne était “très influençable” et sensible aux tendances du moment. Il a aussi rappelé qu’un précédent projet de divorce avait déjà été déclenché… à la suite des prédictions d’une voyante.

Son avocat s’inquiète aujourd’hui pour l’avenir des enfants du couple, estimant que “confier la garde à une personne qui prend des décisions basées sur les réponses d’une IA est irresponsable”. Il a annoncé vouloir contester le droit de garde de la mère.

Un cas qui interroge sur l’usage des IA

L’affaire, au-delà de son aspect rocambolesque, soulève des questions sérieuses sur la manière dont certaines personnes interprètent les réponses des intelligences artificielles comme des vérités absolues. Rappelons que ChatGPT n’est ni un détective privé ni un oracle : il génère des réponses à partir de probabilités linguistiques, et ne peut ni deviner l’avenir, ni lire dans le marc de café.

Un cas qui pourrait bien servir d’exemple dans les débats juridiques et éthiques autour de l’usage personnel et émotionnel des IA.