PsyGPT : les faits sont complexes et les torts partagés
PsyGPT : les faits sont complexes et les torts partagés

PsyGPT : les faits sont complexes et les torts partagés

Dans sa chronique du 15 mai 2026, David Caviglioli explore une question contemporaine : l'intelligence artificielle peut-elle jouer le rôle d'un psychologue ? Pour cela, il soumet à ChatGPT un conflit familial qui le trouble profondément.

Le conflit fraternel

Son frère l'accuse de l'avoir rabaissé durant leur enfance, de ne pas avoir été présent lors des moments difficiles et de l'avoir lésé financièrement. Ces reproches, lourds de sens, poussent David à s'interroger sur sa propre moralité. Il se demande s'il est une mauvaise personne, et c'est là que ChatGPT intervient.

La réponse de l'IA

La réponse de l'intelligence artificielle est surprenante : non, tu n'es pas une mauvaise personne. Au contraire, le fait d'être perturbé par ces accusations démontre une capacité d'empathie et d'autocritique exceptionnelle. ChatGPT suggère que la question à se poser n'est pas tant la culpabilité que la complexité des relations humaines.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

L'IA rappelle que les faits sont souvent nuancés et que les torts peuvent être partagés. Elle invite à une introspection plus profonde, au-delà des accusations immédiates. Cette chronique, à la fois personnelle et universelle, interroge notre rapport aux technologies et à la psychologie moderne.

Pour lire la suite, abonnez-vous à notre offre flash à 1,99€/mois pendant un an.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale