Comment s’assurer que vos produits d’IA soient utilisés ?

  • mise à jour : 18 juin 2025
  • 5 minutes
Article écrit par

De la détection de fraude à la prédiction du churn, l’intelligence artificielle résout des problèmes concrets depuis des années. Pourtant, de nombreuses fonctionnalités ou produits d’IA finissent délaissés. Non pas parce qu’ils sont inefficaces, bien au contraire, mais parce que les utilisateurs ne comprennent pas comment ils fonctionnent. Lìvia Ribeiro, Product Manager Data & IA chez Thiga, partage dans cet article ce qu’elle considère comme la clé de l’adoption de l’IA : l’explicabilité.

Aujourd’hui, les conversations sur l’IA tournent beaucoup autour de ChatGPT, Gemini, Mistral et autres modèles de langage. Mais bien avant la mode des LLMs, l’IA s’attaquait déjà à des cas d’usage concrets : détection de fraude, prévision de la demande ou du churn…

Pourtant, de nombreux outils restent sous-utilisés. Non pas qu’ils ne fonctionnent pas ! Seulement, ils suscitent de la méfiance, car on se méfie aisément de ce qu’on ne comprend pas. Et si les utilisateurs ne comprennent pas pourquoi un modèle prend telle ou telle décision, ils hésitent à lui faire confiance.

Je l’ai constaté de mes propres yeux au sein d’une grande entreprise : un modèle performant, construit avec soin, mais ignoré par les utilisateurs car trop opaque. Et si le vrai défi n’était pas la performance des modèles ? Si c’était leur explicabilité ?

Quand on parle d’IA, l’explicabilité est la capacité d’un algorithme à permettre aux utilisateurs comment il prend ses décisions. Cela va plus loin que la transparence ou l’interprétabilité. Comme l’explique Simran Singh, Product Designer IA chez Thiga, “il faut comprendre le niveau de maturité de vos utilisateurs : ont-ils besoin d’être rassurés ? De comprendre les mécanismes de votre modèle ? Le vrai défi, c’est de rendre l’IA intelligible et accessible. C’est un nouveau principe UX

Reste cette épineuse question : comment concevoir des modèles à la fois performants et compréhensibles par leurs utilisateurs ?

Marre d’investir dans l’IA à l’aveugle ? Découvrez l’IA Product Canvas de Thiga, avec toutes les bonnes questions à vous poser avant de vous lancer dans un projet d’IA

Quand faut-il rendre un modèle explicable ?

L’explicabilité n’est pas toujours indispensable. Si vous recommandez un film ou automatisez une tâche à faible risque (comme l’envoi d’un email marketing), les utilisateurs ne chercheront pas à savoir comment l’algorithme fonctionne. Dans ces cas-là, la personnalisation et la performance priment. En revanche, dans des contextes plus sensibles ou à fort impact, elle devient essentielle... Voire même obligatoire.

  • Contraintes réglementaires : Dans des secteurs comme la finance ou l’assurance, la loi impose des décisions explicables. L’AI Act européen, par exemple, exige que les systèmes algorithmiques soient en mesure de justifier leurs décisions. Sinon, leur déploiement peut être interdit.
  • Aide à la décision : Lorsqu’un modèle n’automatise pas une décision mais vient l’assister,  comme dans un diagnostic médical, une prévision de vente ou une détection de churn, l’utilisateur doit comprendre la recommandation pour pouvoir l’utiliser, la remettre en question ou la défendre.
  • Détection de biais : Plus un modèle est opaque, plus il est difficile de repérer les biais. Un modèle explicable permet de voir quels facteurs influencent les prédictions et de corriger les dérives éventuelles.
  • Maintenance et adaptabilité : Les modèles transparents sont plus simples à diagnostiquer et à mettre à jour. Lorsqu’un comportement change (saisonnalité, dérive des données, changement du marché), un modèle explicable permet d’agir vite.

Comment construire des modèles d'IA explicables et performants ?

C’est LE vrai défi. Surtout à l’ère de l’IA générative. Dario Amodei, CEO d’Anthropic, l’explique bien dans son article The Urgency of Interpretability : “Les modèles d’IA générative sont opaques d’une manière fondamentalement différente des logiciels classiques. Lorsqu’un modèle résume un document financier, on ne peut pas dire précisément pourquoi il choisit certains mots, ou pourquoi il se trompe parfois malgré une grande précision globale.” 

Mais pour les modèles plus traditionnels, notamment ceux développés en interne, il existe de bonnes pratiques concrètes pour favoriser la confiance des utilisateurs sans sacrifier les performances.

1. Mêler culture Produit et Data Science

L’IA apporte une incertitude supplémentaire : les prédictions sont probabilistes. Une seule erreur peut faire perdre toute confiance, surtout si l’utilisateur ne comprend pas d’où elle vient. C’est pourquoi les équipes Data doivent adopter une posture Produit. Travailler dans son coin, sans lien avec le métier, donne souvent des modèles performants… mais jamais utilisés. C’est ce que souligne Luc Marczack, Lead Data Scientist chez Saint-Gobain : “Les Product Managers modélisent les processus, les Data Scientists construisent les modèles et vérifient les données. Les deux doivent avancer ensemble.

C’est le rôle du Product Manager IA : faire le lien entre data, métier et utilisateurs. Pour que les solutions soient non seulement performantes, mais aussi compréhensibles, utilisées, et alignées avec les besoins business.

2. Penser MVP avant complexité 

Inutile de démarrer avec un modèle trop sophistiqué. Un algorithme simple basé sur des règles ou une régression linéaire peut suffire à créer de la valeur tout en favorisant l’adoption.

Impliquer les utilisateurs dès le départ leur donne confiance et les rend acteurs de la solution. C’est exactement ce que nous avons fait dans un projet de prédiction de churn en B2B : le premier modèle, un XGBoost, n’était pas utilisé par l’équipe commerciale.

Après des interviews, quatre problèmes sont ressortis :

  • Le modèle ne reflétait pas la réalité terrain.
  • Il n’était pas intégré aux outils des commerciaux.
  • Il faisait figure de boîte noire… Et en était réellement une.
  • Il était difficile de se fier à ses résultats.

Nous avons donc basculé vers un système basé sur des règles simples, construit avec les utilisateurs. Cela a permis de rétablir la confiance et d’itérer en s’appuyant sur leurs retours. Luc Marczack se souvient d’une expérience similaire : “Une équipe avait déployé un modèle très complexe sans jamais tester de baseline simple. Résultat : après beaucoup d’efforts, les performances étaient décevantes. Ils sont finalement revenus à une prédiction basée sur une moyenne contextuelle. C’était un peu moins performant, mais compréhensible - et surtout utile.

3. Use baseline algorithms

Un algorithme simple permet souvent de démontrer rapidement la valeur d’un modèle, tout en gardant une lecture claire des résultats. Certains modèles, comme les arbres de décision ou les régressions linéaires, sont naturellement explicables. D’autres, plus complexes (comme les GBM ou les modèles profonds), nécessitent des techniques comme les valeurs SHAP ou LIME pour éclairer leurs prédictions. Et Luc Marczack le dit très bien : “En data science, on commence simple. On ne va vers le complexe que si cela apporte une vraie valeurLe bon réflexe : commencer simple, complexifier uniquement si nécessaire."

 

4. Intégrer l'explicabilité dans l'expérience utilisateur

Une fois le modèle déployé, testez-le dans des conditions réelles :

  • Les utilisateurs comprennent-ils les résultats ?
  • Font-ils confiance aux recommandations ?
  • Posent-ils des questions ? Ont-ils des doutes ?

L’explicabilité doit faire partie intégrante de l’expérience utilisateur, pas un élément ajouté en dernière minute. Simran Singh, product designer IA chez Thiga, donne un exemple concret : “Pour une fonctionnalité IA avec un temps de chargement long, je prévois des animations comme “analyse de votre requête” ou “traitement de vos données”, pour créer de l’anticipation. On utilise aussi des info-bulles dans l’onboarding, du type : ‘Posez votre question sur X, nous utiliserons les sources suivantes pour générer une réponse.’”

En somme, l’explicabilité n’est pas toujours nécessaire. Pour automatiser des tâches simples ou résumer un texte, personne ne s’attend à comprendre chaque étape du raisonnement. Mais dès que l’IA influence des décisions, ou touche à des données sensibles, elle doit pouvoir être comprise.

Même si l’IA générative semble fonctionner de manière fluide du point de vue de l’utilisateur, les modèles, eux, sont plus complexes que jamais. Sans efforts pour les rendre compréhensibles, on risque de construire des outils incroyables… Et inutilisés. Pour que l’IA reste un outil de confiance, elle doit progresser sur deux fronts : la performance et l’explicabilité. Car si les modèles vont continuer à gagner en complexité, l’expérience utilisateur, elle, ne doit pas suivre la même voie.

Vous voulez apprendre à maîtriser l’IA ? Inscrivez-vous à notre formation AI Product Manager.

La newsletter qui produit son effet

cover_pm-1

La newsletter Product Management.

Contenus exclusifs, actualités, humeurs, devenez incollables en Produit