L’histoire paraît invraisemblable, presque sortie d’un scénario de série dystopique. Et pourtant, elle est bien réelle. Une femme grecque a récemment demandé le divorce après douze ans de mariage… à la suite d’une prédiction formulée par ChatGPT, l’intelligence artificielle développée par OpenAI. Le motif ? Une prétendue liaison extra-conjugale de son mari, détectée non pas par un détective privé ou une confession, mais par une analyse du fond de deux tasses de café, soumises à l’IA.
Selon la chaîne publique ERT, la plaignante a photographié les résidus de marc de café au fond de sa tasse et de celle de son époux, avant de soumettre les clichés à ChatGPT. L’outil, programmé pour traiter le langage et non pour pratiquer la tasseomancie, lui aurait répondu que son mari était engagé dans une relation avec une femme dont le prénom commencerait par la lettre « E », et qu’il envisageait même de quitter sa conjointe pour cette dernière.
Une technologie prise au mot
La suite est aussi directe qu’irrationnelle : sans chercher à confronter son époux ni demander d’explications, la femme aurait exigé son départ immédiat, avant d’initier une procédure de divorce, notifiée par huissier quelques jours plus tard. Une rupture familiale fondée sur une « révélation » technologique qui, en réalité, relève davantage de l’interprétation que d’une quelconque vérité objective.
Quand l’IA devient un oracle
L’affaire illustre une dérive croissante de l’usage de l’intelligence artificielle, qui, au-delà de ses capacités analytiques, est de plus en plus mobilisée comme un outil de divination. Une situation qui n’est pas sans rappeler certains précédents, notamment des décisions personnelles prises sur la base de consultations ésotériques ou astrologiques. La nouveauté ici, c’est la source : un programme conçu pour répondre à des requêtes rationnelles, utilisé comme s’il s’agissait d’un oracle numérique.
Pour rappel, ChatGPT n’a pas la capacité de voir l’avenir, de détecter des comportements réels à partir d’images, encore moins de lire des signes ésotériques comme les motifs formés par du marc de café. Aucune version actuelle de l’intelligence artificielle d’OpenAI — ou de tout autre modèle — ne peut justifier scientifiquement ce type de lecture.
Entre superstition et algorithme
Ce mélange entre superstition et technologie pose une véritable question de société. Jusqu’où sommes-nous prêts à accorder crédit à des outils technologiques, en les détournant de leur fonction première ? Cette affaire met en lumière une fragilité croissante dans la manière dont certains utilisateurs perçoivent l’intelligence artificielle : non plus comme un assistant au service de la raison, mais comme un arbitre du destin.
En attendant, c’est bien un tribunal grec qui aura la lourde tâche de trancher ce divorce à l’arrière-goût de marc de café et de surinterprétation numérique. Avec, pour seul repère, le droit, et non une prophétie générée par algorithme.





