L'IA face au biais de disponibilité : prompts, base rate et fabrique de mémoire
La double nature de l'IA face à la disponibilité
L'IA est à la fois :
- Sujette au biais (ses réponses penchent vers le saillant dans son training set)
- Outil de correction (elle peut traiter des volumes de données qu'aucun humain ne peut absorber)
Tout dépend de comment vous la prompter.
graph LR
A[LLM par défaut] --> B[Sort le saillant<br/>= biaisé]
C[LLM bien prompté] --> D[Sort la base rate<br/>= rigoureux]
A --> E[Confirme votre intuition]
C --> F[Corrige votre intuition]
style B fill:#ef4444,color:#fff
style D fill:#22c55e,color:#fff
Pourquoi un LLM par défaut amplifie le biais
Quatre raisons mécaniques :
- Sur-représentation des contenus viraux dans le training set (ce qui buzz est ce qui est crawlé).
- Optimisation pour la fluence : la réponse "qui sonne bien" l'emporte sur la réponse "qui est statistiquement représentative".
- Pas d'accès natif à des bases de données structurées : c'est de la mémoire associative, pas du comptage.
- Tendance à donner des exemples mémorables plutôt que des moyennes ennuyeuses (parce que les exemples mémorables dominent les datasets de training).
Demander à un LLM "Pourquoi les startups échouent ?" sans précision = obtenir la liste racontée, pas la liste vérifiée.
Les 5 patterns de prompts anti-disponibilité
Pattern 1 — Forcer la base rate
Mauvais prompt :
"Quels sont les principaux risques d'un projet SaaS B2B ?"
Bon prompt :
"Liste les principaux risques d'un projet SaaS B2B. Pour chaque risque, indique : (1) la fréquence observée en pourcentage de cas — base rate — (2) la source ou type d'étude qui appuie ce chiffre (3) si tu n'as pas de base rate, dis-le explicitement. Trie par fréquence décroissante, pas par dramaturgie."
Effet : vous neutralisez la tendance du LLM à mettre en haut les risques les plus racontés plutôt que les plus fréquents.
Pattern 2 — Forcer le contre-exemple
Mauvais prompt :
"Confirme que le SEO est encore rentable en 2026."
Bon prompt :
"Donne-moi 5 arguments pour pourquoi le SEO est encore rentable en 2026, puis 5 arguments pour pourquoi il ne l'est plus. Pour chacun, indique le poids relatif (faible / moyen / fort) que tu lui donnes et pourquoi."
Effet : on force le LLM à équilibrer la disponibilité narrative.
Pattern 3 — Forcer l'échantillon représentatif
Mauvais prompt :
"Donne-moi un exemple de pivot réussi de startup."
Bon prompt :
"Donne-moi 10 exemples de pivots de startup : 5 qui ont réussi et 5 qui ont échoué. Inclus des cas peu médiatisés. Pour chaque cas, précise : taille au moment du pivot, nature du pivot, outcome 24 mois plus tard."
Effet : on dilue Stripe / Slack / Twitter (les exemples toujours cités) avec un échantillon plus représentatif.
Pattern 4 — Forcer la calibration
Mauvais prompt :
"Est-ce que je devrais lancer cette feature ?"
Bon prompt :
"Évalue la décision de lancer la feature X. Donne une probabilité chiffrée que ce lancement génère un ROI positif sur 12 mois, et explicite : (a) tes hypothèses, (b) les données sur lesquelles tu te bases, (c) ton niveau de confiance entre 1 et 10. Si tu n'as pas assez d'info, dis-le."
Effet : on bloque les réponses optimistes par défaut, on demande au LLM de poser ses incertitudes.
Pattern 5 — Le rôle "avocat du diable statisticien"
Prompt :
"Tu es un statisticien sceptique et bienveillant. Ton job : prendre l'hypothèse suivante et lister les biais cognitifs et statistiques qui pourraient l'avoir produite, en commençant par le biais de disponibilité. Hypothèse : [TON HYPOTHÈSE]"
Effet : le LLM cherche activement les failles. Utile pour challenger une décision stratégique avant de la prendre.
Cas pratique : auditer son CRM avec l'IA contre le biais
Setup
Vous exportez les 200 derniers deals (gagnés/perdus) au format CSV. Colonnes : taille du deal, secteur, ICP, canal d'origine, durée cycle, raison de perte si perdu.
Prompt anti-disponibilité
Tu es un analyste sales ops rigoureux. Voici 200 deals.
Avant de me donner des recommandations, fais ces étapes :
1. Calcule le taux de win global et par segment (ICP, taille, canal).
2. Identifie les segments où le taux de win > moyenne + 1 écart-type.
3. Identifie les segments où le taux de win < moyenne - 1 écart-type.
4. Pour les raisons de perte : groupe par catégorie et compte, ne te focalise pas sur celles qui « font histoire ».
5. Indique le nombre de cas dans chaque catégorie. Si N < 10, marque "données insuffisantes pour conclure".
6. Liste ce qui te surprend par rapport à ce qu'un commercial *raconterait spontanément*.
Format : tableau d'abord, narration ensuite, et seulement à la fin des recommandations.
Notez le "ce qui te surprend par rapport à ce qu'un commercial raconterait spontanément" — c'est le point d'attaque direct contre la disponibilité du sales qui pense connaître son pipe.
Construire un "antidote prompt" personnel
Créez-vous un system prompt à utiliser au début de toute session d'analyse :
Tu es mon assistant de décision. Trois règles absolues :
1. Tu signales explicitement quand tu réponds à partir d'exemples saillants
plutôt qu'à partir d'une base rate vérifiée.
2. Tu demandes systématiquement la taille de l'échantillon avant de
généraliser.
3. Quand je décris une situation, tu cherches d'abord ce qui pourrait
être un biais de ma part avant de me donner mon conseil.
Quand tu n'as pas de données fiables, tu dis "je n'ai pas de base rate
fiable sur cette question, voici une intuition à pondérer".
Tu ne flattes pas mes intuitions. Tu les challenges avec bienveillance.
Ce simple prompt change radicalement la qualité des conseils que vous tirerez de l'IA.
L'IA pour fabriquer de la disponibilité (côté offensif)
Inversons : comment l'IA aide à rendre votre offre plus mémorable chez vos prospects ?
Pipeline "vivid content"
graph LR
A[Cas client brut<br/>interview 60min] --> B[LLM extraction<br/>des 5 moments saillants]
B --> C[LLM réécriture<br/>format storytelling]
C --> D[LLM génération<br/>3 variantes: tweet, mail, post LinkedIn]
D --> E[Publication<br/>multi-canaux]
style A fill:#fef3c7
style E fill:#22c55e,color:#fff
Prompt extraction
Voici la transcription d'un appel client. Sors-moi :
1. Les 5 phrases les plus émotionnellement chargées (citations exactes).
2. Les 3 images mentales les plus fortes que le client utilise.
3. Le "before/after" en 1 phrase chaque.
4. Le moment où le client a "réalisé" la valeur (pivot émotionnel).
Format : JSON.
Prompt rewriting
À partir des éléments suivants, écris 3 versions d'un case study court :
- Version Tweet (280 caractères max)
- Version Email (4 paragraphes max)
- Version Post LinkedIn (hook + corps + CTA)
Contrainte : chaque version doit commencer par une image mentale concrète,
PAS par un chiffre. Le chiffre apparaît au plus tôt en deuxième paragraphe.
Résultat type
Vous transformez 1 heure d'interview en :
- 10 tweets
- 4 emails
- 3 posts LinkedIn
- 2 scripts de témoignage vidéo
Tous vivides, tous différents, tous orientés disponibilité mentale.
Le piège du "garbage in"
Une chose à comprendre : l'IA n'invente pas la saillance. Si votre matière première (interviews, témoignages) est plate, l'IA ne pourra pas rendre disponible ce qui ne l'est pas.
Recette pour interviewer un client de manière à générer du vivid output :
- Posez-lui : "Quel a été votre pire moment avant d'utiliser l'outil ?" (récupère une scène)
- Puis : "Et le premier moment où vous avez senti que ça changeait ?" (récupère le pivot)
- Puis : "Donnez-moi un exemple concret, daté, du résultat." (récupère les détails sensoriels)
- Puis : "Si vous deviez expliquer ça à un pair, vous diriez quoi en 1 phrase ?" (récupère le slogan natif)
Avec ces 4 questions, l'IA a tout ce qu'il faut pour fabriquer 20 contenus mémorables.
Mesurer la disponibilité produite par l'IA
| KPI | Mesure | Méthode |
|---|---|---|
| Recall à 7 jours | % de prospects qui se rappellent du message | Sondage post-séquence |
| Citation organique | % de prospects qui mentionnent un élément du contenu en démo | Tracking CRM |
| Engagement émotionnel | Taux d'interaction (réplique, sauvegarde, partage) | LinkedIn / Twitter analytics |
| Branded search lift | Évolution des recherches "marque + sujet" | Search Console |
Anti-patterns IA à éviter
- Sur-confier au LLM une décision data-heavy (il invente des chiffres plausibles).
- Demander un "exemple" sans préciser de critères de représentativité.
- Générer du contenu en masse sans curation humaine (la disponibilité de bruit n'est pas la disponibilité utile).
- Confier le prompt à quelqu'un qui ne comprend pas le biais (le prompt va répliquer son intuition biaisée).
Résumé
- L'IA est sujette et antidote au biais de disponibilité — c'est le prompt qui détermine de quel côté elle bascule.
- 5 patterns de prompts anti-disponibilité : forcer la base rate, le contre-exemple, l'échantillon représentatif, la calibration, le rôle d'avocat du diable.
- Créez un system prompt personnel qui impose la vigilance par défaut.
- Côté offensif : pipeline
interview → extraction → rewriting → publicationpour fabriquer du contenu vivide à grande échelle. - Mesurez la disponibilité produite : recall, citation organique, engagement, branded search.
- Garbage in = garbage out : la matière première (interviews) doit être travaillée pour générer du vivid.
- Chapitre suivant : les stratégies entrepreneuriales qui découlent du biais de disponibilité.