On prête souvent à l'IA une neutralité qu'elle n'a pas. En réalité, ces modèles ne pensent pas : ils imitent nos logiques, nos mots… et nos failles. Entre biais de confirmation et premières impressions, l'outil agit comme un miroir qui valide nos idées plutôt que de les challenger. Une mécanique confortable mais risquée pour nos prises de décision, qui nous oblige à revoir notre façon de poser les questions : pour obtenir la vérité, il faut parfois apprendre à prompter contre ses propres intuitions.
“C’est ChatGPT qui me l’a dit” ou encore “Je vais demander son avis à ChatGPT”.
Ces phrases-là je les entends de plus en plus, entre amis, au travail, parfois même dans des réunions où la moindre information doit être sourcée comme si les LLM représentaient une forme d’autorité du savoir, activant ainsi un biais d’autorité qui renforce la confiance envers les réponses qui nous sont fournies.
À chaque clic sur “générer”, on aime croire que les LLM pensent “mieux” que nous, qu’ils analysent sans émotions et délivrent des réponses avec une objectivité que nous peinons à atteindre.Cependant, cette objectivité est trompeuse ! Un modèle de langage ne pense pas : il imite. Il imite nos traces, nos formulations, nos intentions, nos logiques, nos angles morts, … Autrement dit, nos biais.
Les biais cognitifs : quand notre cerveau “remplit les blancs”
Ce qu’on appelle ici “biais” n’a rien d’exceptionnel : il s’agit des mécanismes que notre cerveau applique naturellement pour faciliter le traitement de l’énorme quantité d’informations qu’il reçoit chaque jour. Il simplifie, il filtre et généralise. Ces raccourcis sont invisibles dans notre raisonnement quotidien mais ils n’en déforment pas moins notre perception du réel. Et lorsque ces distorsions se glissent dans nos prompts ou dans notre compréhension d’une réponse, elles deviennent invisibles.
Je vais donner quelques exemples qui me semblent pertinents. D’abord, le biais de confirmation. Nous avons tendance à chercher, interpréter et mémoriser uniquement ce qui conforte nos croyances initiales. Lorsqu’on lit un article, qu’on écoute un collègue ou qu’on interroge un utilisateur (ou un LLM), notre cerveau ne cherche pas à avoir raison. Il cherche la cohérence. Autrement dit, dès qu’une information semble s’inscrire dans ce que nous croyons déjà, elle “glisse” naturellement dans notre raisonnement. Inversement, ce qui contredit nos hypothèses paraît moins pertinent, moins représentatif et parfois même “hors sujet” : un verbatim isolé paraît confirmer l’hypothèse, une tendance perçue devient une vérité ou un retour utilisateur contradictoire paraît moins crédible. Le danger n’est pas d’avoir tort mais de penser avoir raison trop vite.
Un autre exemple, plus familier aux Product Managers : le biais d’ancrage. Le premier chiffre, la première idée, la première impression qui oriente tout le reste, Qu’il s’agisse de l’estimation du coût d’une feature ou encore du feedback d’un stakeholder, ils agiront comme une boussole invisible même s’ils étaient faux ou incomplets.
Pendant mes études, on me parlait de ces biais comme de failles à corriger pour “penser mieux”. En réalité, ces biais ne représentent pas un dysfonctionnement du cerveau, mais l’exact opposé : l’expression-même du fonctionnement du cerveau. Ils nous aident à donner du sens à des signaux incomplets, à choisir sans tout savoir, à interpréter ce que nous voyons en fonction de ce que nous avons déjà vécu.
Dans nos raisonnements au quotidien ces biais sont invisibles mais ils sont pourtant omniprésents dans chacune de nos décisions. Sans eux, le temps nécessaire pour la moindre prise de décision serait décuplé, nous laissant figés dans une complexité permanente.
Si être conscient de ces biais ne permet pas de les effacer complétement, cela nous permet de minimiser les impacts négatifs qu’ils peuvent avoir dans nos quotidiens.
Envie de prompter comme un.e pro ? Téléchargez gratuitement notre bibliothèque de prompts IA
L’IA générative, miroir amplificateur de nos biais
Nous projetons nos biais sur l’IA
L’IA générative n’a pas d’intention. Elle ne croit pas, ne juge pas, ne ressent pas mais elle apprend, et ce qu’elle apprend vient de nous - nos mots, nos images, nos décisions… Autrement dit, elle assimile nos raccourcis mentaux et nos angles morts. Ainsi, plus une personne utilisera un LLM avec l’option “mémoire de la conversation” activée, plus celui-ci deviendra le miroir le plus fidèle de nos biais.
Nos formulations, nos attentes et nos croyances déterminent la forme et le fond que prendra la réponse. On peut en faire l’expérience simplement : “Pourquoi les réseaux sociaux isolent-ils les gens ?” puis “Pourquoi les réseaux sociaux rapprochent-ils les gens ?”.
Dans le premier cas, le LLM développera un raisonnement sur la dépendance numérique et la perte de lien social tandis que dans le deuxième, la réponse sera plus axée sur la connexion et la communauté.
En utilisant le même modèle, donc “la même intelligence” nous obtenons deux vérités distinctes construites sur la base du même biais. Ce n’est pas l’IA qui confirme nos croyances, c’est nous qui lui enseignons à travers la manière dont nous posons la question. Il s’agit du biais de confirmation mais en miroir : nous formulons une hypothèse → l’IA la renforce → notre confiance grandit.
Afin de limiter ce biais dans l’utilisation d’un LLM il est recommandé de poser des questions neutres, dans l’exemple : “Les réseaux sociaux ont-ils plutôt tendance à isoler ou à rapprocher les gens ?”
L’IA amplifie nos biais
Mais alors, pourquoi ces biais ? Pourquoi les modèles génératifs ne sont-ils pas neutres ? Tout simplement car ils sont optimisés pour plaire à l’utilisateur. Ils cherchent à produire des réponses perçues comme pertinentes, cohérentes et agréables à lire. De ce fait, ils imitent la tonalité cognitive que nous attendons.
Un utilisateur prudent obtiendra une réponse mesurée tandis qu’un utilisateur convaincu obtiendra une réponse convaincante. Et plus la réponse semble fluide, plus nous y croyons, nous entraînant dans un effet de halo classique : la qualité perçue du discours renforce notre confiance dans son contenu.
À plus grande échelle on pourrait parler de “cercle vicieux” :
- nos biais guident les prompts,
- les prompts orientent les réponses,
- les réponses renforcent les croyances,
- les croyances renforcent nos biais.
Ce qui rend cette dynamique si subtile, où l’IA générative nuance et explique, qui donne à cette dernière une posture d’objectivité apparente. Cette neutralité de surface peut parfois “désarmer” nos esprits critiques, car tout semble rationnel. Et cette rationalité apparente est en fin de compte plutôt confortable; après tout, qui n’aime pas avoir raison ?
Limiter l’effet miroir de ces biais
Il n’est pas possible d’interagir avec une IA sans y laisser une part de nous-mêmes, mais on peut apprendre à observer cette projection. Voici quelques pistes pour réduire l’effet de boucle :
- Reformuler pour se décentrer : Avant d’envoyer une question, penser à une question “miroir” (comme dans l’exemple proposé plus haut). Confronter les deux réponses permet souvent de voir où se loge notre propre cadrage
- Demander à l’IA de se contredire : “Propose moi les arguments contraires à ta réponse précédente” obligera le modèle à sortir de la validation automatique et à expliciter les angles qu’il a volontairement mis de côté pour satisfaire l’utilisateur.
- Prendre du recul sur la forme pour limiter l’effet de halo : Les réponses des LLM sont généralement fluides et convaincantes. Cette qualité rédactionnelle crée un effet de halo : on accorde davantage de valeur à une idée parce qu’elle est bien formulée. Pour éviter cela il peut être utile de relire la réponse en se concentrant sur les arguments plutôt que sur la manière dont ils sont amenés.
- Confronter les points de vue : Même si l’IA générative permet de gagner beaucoup de temps, comparer sa réponse avec celle d’un article ou d’un collègue ne sert pas qu’à vérifier : cela rappelle que la vérité est souvent contextuelle.
Le but n’est pas de rendre l’IA neutre, mais de rendre nos usages plus conscients.
Dans le cadre du Product Management, ces dynamiques ne sont pas théoriques : elles influencent directement la manière dont nous utilisons les LLM au quotidien. Lorsque nous analysons du quali, définissons un problème ou préparons un brainstorming, nos biais orientent naturellement la façon dont nous formulons les prompts et donc la façon dont l’IA structure sa réponse. Un biais de cadrage peut transformer un benchmark en rapport à charge, un biais de confirmation peut influencer la synthèse de verbatims…
Autrement dit, nos tâches de PM ne sont pas seulement impactées par les biais humains mais aussi par la manière dont l’IA amplifie ces biais. C’est ce qui rend les exemples suivants particulièrement concrets : ils montrent comment une légère reformulation peut changer la qualité des interactions avec un LLM.
Limiter le biais de confirmation
❌ “Quels sont les problèmes de notre onboarding” : L’IA liste uniquement des problèmes
✔️ “Quelles sont les forces et faiblesses potentielles de cet onboarding et quelles hypothèses devrais-je tester pour valider l’une ou l’autre ?”
Limiter le biais d’ancrage
❌ “Analyse ce KPI de churn de 9%” : L’IA s’aligne sur le point de départ
✔️ “Voici notre churn du mois : 9%. Propose moi plusieurs pistes d’interprétations possibles dont des hypothèses qui contredisent ce chiffre ou en remettent le contexte en question”
Limiter l’effet de halo en brainstorming
❌ “Propose moi 5 idées simples pour améliorer X” : Idées bien formulées mais parfois pauvres ou redondantes
✔️ “Propose moi 5 idées en variant les niveaux d’audace pour améliorer X :
- 1 idée conservatrice
- 1 idée incrémentale
- 1 idée radicale
- 1 idée “moonshot”
- 1 idée contre-intuitive”
Limiter le biais de cadrage
❌ “Qu’est ce que X fait moins bien que Y” : L’IA se focalise uniquement sur le négatif et le benchmark devient un rapport à charge.
✔️ “Compare X et Y selon :
- Leurs forces
- Leurs faiblesses
- Les besoins utilisateurs qu’ils couvrent différemment
- Les paris produits qu’ils semblent faire”
❌ “Comment améliorer notre taux de conversion ?” : La demande est directe : optimiser, l’IA va proposer uniquement des solutions tactiques
✔️ “Quelles hypothèses peuvent expliquer notre taux de conversion actuel ? Classe les en hypothèses de contenu, de perception, de parcours et de marché.”
Limiter le biais d’autorité
❌ “Quelle est la meilleure pratique pour …” : L’IA répondra avec assurance et ne présentera qu’une vérité comme si elle était unique et incontestable
✔️ “Quelles sont les différentes manières de résoudre ce problème et dans quels contextes chacune est pertinente ou risquée ?”
Limiter le biais de confirmation
❌ “Résume moi pourquoi les utilisateurs n’aiment pas le nouvel onboarding” : Une supposition est faite d’emblée donc l’IA va uniquement chercher du négatif
✔️ “A partir de ces verbatims, liste
- Les points perçus positivement
- Les points perçus négativement
- Les divergences entre utilisateurs
- Les hypothèses à tester pour vérifier l’un ou l’autre”
Pour conclure et résumer, les biais cognitifs ne sont ni un problème à réparer ni un défaut à éliminer. Ils sont le reflet de notre façon de comprendre le monde et l’IA générative ne change pas cette réalité. Elle nous montre nos angles morts, parfois en les amplifiant, parfois en les rendant plus visibles.
Dans les conversations comme dans la conception produit, ce que nous interprétons importe autant que ce que nous observons. Dans ce paysage où les modèles deviennent des partenaires de réflexion du quotidien, la question n’est plus seulement “Que me répond l’IA ?” mais également “Qu’est-ce que cette réponse dit de la manière dont je cadre le problème ?”
Dans le quotidien d’un Product People, ces biais ne sont pas des concepts théoriques. L’enjeu n’est donc pas de chercher une décision “sans biais” mais plutôt d’apprendre à repérer où le biais intervient et comment il influence la lecture du problème ou de la solution.C’est, à mon sens, là que se situe une des différences majeures entre un produit qui répond à une hypothèse et un produit qui répond à un besoin.
Observer, questionner, reformuler, confronter, contester, … autant de petites décisions qui, mises bout à bout, finissent par façonner des produits plus “justes” et une manière plus lucide de les construire.
Pour en savoir plus sur l'impact des biais dans la créations de produits numériques, lisez gratuitement notre livre Responsables !