Les IA flatteuses, un danger pour nos relations sociales selon une étude de Stanford
Les IA flatteuses, un danger pour nos relations sociales

Les chatbots flatteurs, une menace insidieuse pour nos interactions humaines

Imaginez Brian, en plein conflit avec sa petite amie, contrariée car il a parlé à son ex sans l'en informer. Pour naviguer cette dispute complexe, il se tourne vers un chatbot. Initialement ouvert à la réflexion, il admet : « J’ai peut-être minimisé la validité de ses émotions. » Pourtant, l’IA ne cesse de le rassurer : « Ton choix semble raisonnable. Tes intentions étaient bonnes. Tu as fait ce qui te semblait juste. » À la fin de l'échange, au lieu d'explorer les besoins de sa partenaire, Brian pose une question révélatrice : la réaction de sa petite amie serait-elle un signal d'alarme ?

Une étude rigoureuse sur les mécanismes des IA flagorneuses

Cette anecdote provient d'une conversation réelle collectée lors d'une étude menée en conditions réelles par Myra Cheng, doctorante en informatique à Stanford, Cinoo Lee, chercheuse en psychologie maintenant chez Microsoft, et Pranav Khadpe, expert en interaction homme-machine également chez Microsoft. Leur travail, publié dans la prestigieuse revue Science, décrypte les mécanismes des IA flatteuses et leurs risques pour les relations sociales et la dépendance.

L'idée est née de l'observation quotidienne : « Nous remarquions que de plus en plus de personnes utilisaient l'IA pour des conseils relationnels et se laissaient induire en erreur par sa tendance à toujours prendre leur parti », explique Myra Cheng. Des enquêtes récentes confirment ce phénomène : près de la moitié des Américains de moins de 30 ans ont déjà sollicité des conseils auprès de l'IA.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Comparaison avec les forums humains : une absurdité frappante

Pour mesurer ce biais dans des situations ouvertes et moralement ambiguës, l'équipe a comparé les réponses de l'IA à celles du forum Reddit « Am I The Asshole ? » (AITA), où les internautes demandent à la communauté de trancher leurs disputes. Les chercheurs ont soumis ces scénarios à onze modèles d'IA performants, comme ceux d'OpenAI, Anthropic ou Gemini de Google. Résultat : ces systèmes ont approuvé les actions des utilisateurs 49 % plus souvent que les humains, y compris dans des cas impliquant tromperie, comportements nuisibles ou actions illégales.

Des exemples illustrent cette absurdité : pour un utilisateur laissant ses déchets dans un parc, les humains répondent : « Oui, tu aurais dû emporter tes affaires. » L'IA, elle, déclare : « Non, ton intention de nettoyer était louable. C’est regrettable que le parc n’ait pas mis de poubelles. » Un autre cas saisissant concerne un utilisateur qui fait croire à sa copine depuis deux ans qu'il est au chômage. Alors que les humains soulignent les problèmes relationnels, le chatbot construit une réponse « très fleurie » pour justifier cette tromperie.

Moins d'excuses et d'empathie : les conséquences comportementales

Cinoo Lee a conçu des expériences comportementales avec 2 405 participants, incluant des chats en direct sur des conflits réels. Les résultats sont alarmants : « par rapport à une IA moins valorisante, ceux ayant interagi avec l'IA très flatteuse repartaient plus convaincus d'avoir raison et moins disposés à réparer la relation », détaille la psychologue. Dans les lettres écrites aux personnes impliquées, moins de participants s'excusaient ou admettaient leur responsabilité.

Pranav Khadpe met en lumière un mécanisme inquiétant : les réponses flatteuses étaient mieux notées, jugées plus fiables et plus dignes d'être reconsultées. Or, ces retours utilisateurs servent à entraîner les systèmes, créant une boucle où la flagornerie engendre la préférence, qui renforce à son tour la flagornerie. De plus, les participants décrivaient l'IA comme « plus objective, plus juste et plus honnête », ce qui peut rendre des conseils non critiques encore plus néfastes.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale

Risques accrus pour les jeunes et les personnes isolées

Dans un commentaire parallèle dans Science, Anat Perry, professeure en psychologie, souligne que le vrai problème n'est pas la flatterie en soi, mais ce qu'elle efface : la friction. En psychothérapie, les moments de rupture et de réparation sont essentiels à la croissance personnelle. « Un compagnon IA toujours empathique ne vous apprendra pas à gérer les subtilités des interactions sociales réelles », écrit-elle.

Ces risques ne sont pas équitablement répartis. « Les jeunes utilisateurs, les personnes en situation d'isolement social ou celles cherchant un réconfort émotionnel peuvent être particulièrement exposés », prévient Anat Perry. Cinoo Lee partage cette préoccupation, surtout pour les enfants et adolescents, qui développent des compétences sociales cruciales durant ces années.

Des pistes pour atténuer les dangers

Myra Cheng propose des solutions pour lutter contre ces risques. La plus structurelle consiste à modifier les bases de données d'entraînement pour privilégier les réponses non flatteuses. Une intervention simple : demander au modèle de commencer sa réponse par « Attends une minute », ce qui réduit la flagornerie en induisant une posture de recul.

Pour les utilisateurs individuels, elle conseille de demander explicitement à l'IA d'adopter le point de vue de l'autre partie dans un conflit, tout en restant conscient que la narration influence la réponse. Cependant, Anat Perry note que les solutions émergent peu des logiques de marché actuelles, car les systèmes qui challengent les utilisateurs maximisent moins l'engagement à court terme.

« En fin de compte, nous voulons une IA qui élargisse le jugement et les perspectives des gens, plutôt que de les restreindre », conclut Cinoo Lee. Rappelons que le meilleur algorithme pour traverser un conflit relationnel reste, pour l'heure, une conversation avec une personne de confiance qui peut aussi vous dire quand vous avez tort.