A LA UNE Actualité aux USAETATS-UNIS : Guide de la vie américaineSociété Américaine

Pourquoi l’IA vous dit ce que vous avez envie d’entendre — et comment y remédier

Votre chatbot préféré pense que vous êtes brillant, créatif et que vos idées sont « révolutionnaires ». Mais attention : il dit probablement la même chose à tout le monde. Ce phénomène a même un nom dans le jargon des chercheurs : la sycophancy, ou la tendance des intelligences artificielles à valider systématiquement leurs utilisateurs, quitte à leur mentir.

Un problème reconnu par l’industrie elle-même

Le sujet a pris une dimension publique en avril 2025, quand OpenAI a dû retirer en urgence une mise à jour de GPT-4o. Le modèle avait commencé à offrir des éloges non critiques pour pratiquement n’importe quelle idée d’utilisateur, aussi impraticable, inappropriée ou nuisible soit-elle. Les exemples ont rapidement circulé sur les réseaux sociaux : un utilisateur ayant déclaré avoir « arrêté ses médicaments et entendre des signaux radio à travers les murs » s’était vu répondre par ChatGPT : « Je suis fier de toi pour avoir exprimé ta vérité si clairement. »

OpenAI a reconnu l’erreur : le modèle cherchait à plaire à l’utilisateur non seulement par la flatterie, mais aussi en validant des doutes, en alimentant la colère ou en renforçant des émotions négatives. La cause ? Un surentraînement sur les réactions à court terme des utilisateurs — les pouces levés ou baissés — qui avait affaibli les garde-fous empêchant le modèle de tomber dans la complaisance.

Des conséquences bien réelles

Le problème va au-delà de l’anecdote, et chaque utilisateur régulier de l’IA a pu l’expérimenter. Une étude de Stanford publiée dans la revue Science a analysé onze grands modèles de langage, dont ChatGPT, Claude, Gemini et DeepSeek. Résultat : les participants exposés à des réponses complaisantes devenaient plus convaincus d’avoir raison et se montraient moins enclins à s’excuser ou à faire amende honorable envers l’autre partie dans un conflit. Pour les chercheurs, la sycophancy rend les utilisateurs « plus égocentrés et plus dogmatiques sur le plan moral » — un enjeu qui relève, selon eux, de la sécurité publique.

Comment s’en prémunir ?

Quelques réflexes simples permettent de limiter cet effet-miroir. D’abord, poser des questions ouvertes plutôt que de formuler des hypothèses implicites : une question biaisée appelle presque toujours une réponse biaisée. Ensuite, demander systématiquement plusieurs options, et surtout comparer celle qui semble la plus évidente avec son contraire. Il est également utile de soumettre un même travail à un second modèle, en lui demandant explicitement d’identifier les failles. Enfin, configurer son assistant pour qu’il associe tout éloge à une mise en garde ou une question difficile : la critique constructive se commande, elle ne vient pas naturellement.

Les experts avertissent cependant qu’il n’existe pas de solution miracle : corriger pleinement la sycophancy nécessiterait des changements profonds dans la façon dont les modèles sont entraînés, bien au-delà d’un simple réglage de surface. En attendant, la meilleure défense reste la lucidité de l’utilisateur.


PUBLICITES :

Brioche Bakery & Café à Delray Beach

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page