L'A/B testing est une méthode d'expérimentation contrôlée qui consiste à présenter deux variantes (A et B) d'un élément à des groupes d'utilisateurs distincts, puis à mesurer laquelle produit les meilleurs résultats sur un indicateur défini (taux de conversion, engagement, temps passé).
Côté technique, l'A/B testing s'appuie sur un système de répartition aléatoire du trafic, un mécanisme de feature flags pour servir les variantes, et un outil de collecte et d'analyse statistique. L'enjeu est d'atteindre une significativité statistique suffisante avant de conclure — ce qui nécessite un volume de trafic minimal et une durée d'expérimentation adaptée.
L'A/B testing est un outil précieux pour les décisions produit à fort impact (parcours d'achat, onboarding, pricing), mais il a ses limites : il ne fonctionne qu'avec un trafic suffisant, ne capture que les effets à court terme, et peut créer une complexité technique importante si trop de tests tournent en parallèle. Pour la plupart des applications métier, des tests utilisateurs qualitatifs sont souvent plus adaptés et moins coûteux à mettre en place.