VU, LU, ENTENDU

« Ne laissons pas le mirage des interviews synthétiques brouiller la révolution IA » – Tribune de Luc Balleroy, Directeur Général d’OpinionWay

24 Nov. 2025

Luc Balleroy - Directeur Général OpinionWay

Partager

L’intelligence artificielle transforme en profondeur le secteur des études marketing. Parmi les innovations récentes, les « interviews synthétiques » – des simulations d’entretiens générées par IA – suscitent un vif intérêt dans la profession. Peuvent-elles remplacer les enquêtes auprès de vrais répondants ? Luc Balleroy, Directeur Général d’OpinionWay, livre ici son analyse, nourrie par les travaux de recherche académiques récents et les expérimentations menées par son institut. Une réflexion qui interroge les fondements mêmes du market research à l’ère de l’IA générative.

LA TRIBUNE DE LUC BALLEROY, DIRECTEUR GENERAL D’OPINIONWAY

Nous appréhendons l’IA comme un puissant stimulant de la réinvention de notre métier 

Depuis sa création, OpinionWay porte l’innovation dans son ADN. Nous avons été parmi les tout premiers instituts d’études à franchir le pas du digital, en conduisant certaines des premières enquêtes online et en construisant notre propre panel. Cette culture pionnière n’a jamais cessé de nous guider — et aujourd’hui, plus encore qu’hier, elle s’impose comme un moteur indispensable.

L’arrivée de l’IA générative a agi comme un extraordinaire accélérateur. Très tôt, dès 2023, nous avons engagé un Grand Challenge qui a mobilisé plus d’une trentaine de collaborateurs pour explorer toutes les voies d’application possibles dans nos métiers. La même année, nous nous sommes équipés de MAIA, notre LLM sécurisé, et avons déployé la première Charte IA du secteur, affirmant ainsi notre volonté d’innovation responsable.

Notre signature, « Enable today, shape tomorrow », capture parfaitement cet état d’esprit : une promesse et un cap, un engagement à agir dès maintenant pour construire l’avenir.

Un engagement qui prend tout son sens avec l’essor de l’intelligence artificielle, et qui résonne profondément avec notre raison d’être en tant qu’entreprise à mission : conjuguer l’humain et l’innovation pour accompagner marques et organisations vers un futur souhaitable. L’innovation en est l’un des trois piliers, et constitue l’essence même de notre démarche.

Mais cet enthousiasme ne doit pas nous faire renoncer à l’essence même de ce qui fait la valeur de notre métier. 

Le premier pilier fondateur de notre métier repose sur la représentativité des données que nous produisons pour aider les entreprises et organisations que nous accompagnons à prendre des décisions éclairées sur la base de faits incontestables.

Dans un monde où chaque décision stratégique engage des budgets considérables et peut déterminer le succès ou l’échec d’une entreprise, la représentativité n’est pas négociable. Un lancement produit raté coûte des millions. Un repositionnement de marque mal calibré peut détruire des années de capital-image. Nos clients ont besoin de certitudes, ou du moins de données suffisamment fiables pour minimiser les risques. C’est pourquoi la représentativité de nos échantillons – qu’elle soit statistique, sociologique ou comportementale – constitue le socle de notre légitimité professionnelle.

Mais au-delà des chiffres, la valeur du market research réside dans sa capacité à capter la complexité du réel. Les consommateurs ne sont pas des variables, ce sont des individus avec leurs contradictions, leurs aspirations, leurs freins inconscients. Cette rigueur est notre garantie de fiabilité, notre contrat de confiance avec nos clients. Elle nous permet de transformer des milliers de réponses en recommandations stratégiques solides, actionnables et différenciantes.

Dans ce contexte de fascination pour l’IA les interviews synthétiques sont un mirage dangereux

Lors du dernier Printemps des études et du dernier congrès ESOMAR, une idée a fait son chemin dans les allées et les conférences : et si les interviews synthétiques nous permettaient de nous affranchir de l’obligation d’interroger de vraies personnes ? Le concept a séduit. L’idée a circulé largement. Trop largement.  Le mirage est au rendez-vous.

Pour rappel une interview synthétique (ou synthetic interview) est une simulation d’entretien réalisée par une intelligence artificielle, où les réponses sont générées par un modèle de langage (LLM) au nom de personnages fictifs (personas).

Remplacer les interviews réels qu’ils soient inscrits dans une démarche qualitative ou quantitative n’est pas une question de posture, de dogme, de croyance, ni d’opinion. Le sujet est suffisamment sérieux pour lire ce que dit la recherche en la matière.

Or tous les travaux de recherche conduits en la matière en 2024 et 2025 sont formels  (cf. bibliographie)

  • Les « interviews synthétiques » (LLM jouant des personas) peuvent accélérer l’idéation (générer hypothèses, variantes de wording, scénarios), mais ne permettent pas d’inférer à la population ni d’estimer la prévalence réelle d’opinions/comportements. En clair, elles ne peuvent être considérées comme le reflet de la population réelle.
  • Les comparaisons publiées montrent des écarts systématiques : variance sous-estimée, corrélations altérées, biais par sous-groupes, et instabilité temporelle des distributions générées. Et la conclusion commune de ces travaux est sans appel les interviews synthétiques peuvent être un complément exploratoire, mais en aucun cas un substitut à l’interrogation d’un échantillon représentatif.

A écouter > Podcast #7 – Données synthétiques : quelle place dans les études marketing ? Avec Stéphane Marcel, Président de Syntec Etudes

Pourquoi les interviews synthétiques sont un leurre ?

L’opinion sur un sujet donné, la décision d’achat d’un produit ou un service résultent d’une combinaison multifactorielle d’éléments structurants :

  • Des déterminants sociologiques 
  • Des facteurs culturels 
  • Des déterminants psychologiques et motivationnels 
  • Des éléments conjoncturels ou situationnels 
  • Des expériences personnelles antérieures 

Autant d’éléments dont la fréquence conjointe et la réalité de l’impact sur une opinion ou une décision sont inconnues d’un LLM et non calibrables.

A supposé que nous puissions identifier TOUTES les variables qui construisent l’opinion ou la décision d’un individu sur un sujet donné ou un objet (ce qui est déjà très improbable), alors l’IA peut en effet produire la combinatoire colossale de toutes les configurations possibles et les incarnées dans des personas. Mais en aucun cas elle est en mesure de trouver de façon fiable l’occurrence réelle de ces personas dans la population et en définir l’impact réel sur leur opinion et décision (à moins de se nourrir d’études récentes réalisées sur le même sujet, ce qui en ôterait donc grandement l’intérêt) .  

Les seuils cas d’usages auxquels aboutissent les travaux de recherches sont l’utilisation des interviews synthétiques (en grands nombres) pour accélérer l’idéation (générer des hypothèses, des variantes de wording, de scénarios) avec une limite qui tient au fait que l’IA produit des données simulées qui sur-évaluent les réponses positives et montrent une variance fortement réduite (risque de “flattening” des groupes). 
Par ailleurs toutes les recommandations de ces travaux de recherche préconisent de valider ces hypothèses par la mesure de leur pertinence avec des études directes sur des échantillons représentatifs.

Pour être complet sur le sujet, même les boost d’échantillons présentent à ce jour des problèmes majeurs 

Intéressés – comme l’ensemble des instituts – par les possibilités offertes par l’IA, et fidèles à notre esprit d’innovation, nous avons mené de nombreux tests avec différents acteurs du secteur proposant des solutions de boost sur des sous-cibles. L’objectif : renforcer des segments où le nombre d’interviews est trop faible pour garantir une bonne représentativité de la variabilité des réponses, ou pour permettre des tris d’analyse plus fins.

À ce jour, l’ensemble de nos expérimentations s’est révélé infructueuxAucun boost n’a passé les tests de pertinence menés par nos data scientists au sein du Lab OpinionWay :

  • Le score SAE, qui mesure l’écart entre les prédictions et les données réelles.
  • La matrice de confusion d’un Random Forest, permettant d’évaluer l’atypisme du boost en vérifiant s’il est possible – ou non – de distinguer un interviewé synthétique d’un interviewé réel.

Le seul cas où le boost est parvenu à franchir ces deux seuils de robustesse concernait une sous-cible dont les réponses étaient très proches de celles de la population de référence, ce qui, pour le moins, en limite fortement l’intérêt opérationnel

Pour autant, sur ce sujet comme tous les autres nous restons ouverts à de nouvelles expérimentations sur les apports de l’IA à notre métier.

La révolution technologique qui s’offre à nous est immense, mais elle n’a de sens que si elle éclaire le réel plutôt qu’elle ne l’imite. À l’heure où les mirages numériques se confondent parfois avec des promesses de rupture, nous avons la responsabilité de garder le cap : celui de la rigueur, de la représentativité, et du respect de la complexité humaine.

L’IA ouvre des horizons extraordinaires, et nous voulons en explorer chaque possibilité utile. Mais elle ne doit jamais devenir un raccourci qui affaiblit la fiabilité des décisions ou brouille la vérité des comportements. Notre métier ne consiste pas seulement à produire des données : il consiste à produire du vrai.

Restons donc pionniers, exigeants, et lucides. Innovons, expérimentons, avançons — mais sans jamais renoncer à ce qui fonde la valeur de notre travail. Car c’est en conjuguant l’audace de l’innovation et l’humilité du réel que nous construirons, ensemble, un futur réellement souhaitable.


Pour aller plus loin :

  1. Cambridge University : Bisbee, J., Clinton, J. D., Dorff, C., Kenkel, B. & Larson, J. M. (2024) Synthetic Replacements for Human Survey Data? The Perils of Large Language Models. Political Analysis, 
  2. Shrestha, P., Krpan, D. et al. (2025) Beyond WEIRD: Can synthetic survey participants substitute for humans in global policy research?Behavioural Science & Policy, Volume XX, Issue X. 
  3. Valenzuela, S. (2025) Using large language models for survey research in the social sciences. Socio-Behavioural Methods 
  4. Xu, S., Elazar, Y., Vogel, Q., Plank, B. & Grabmair, M. (2025) Better Aligned with Survey Respondents or Training Data? Unveiling Political Leanings of LLMs on U.S. Supreme Court Cases. In Proceedings of the First Workshop on Large Language Model Memorization 
  5. ACM : Kaiser, C., … (2025) Simulating human opinions with large language models: Opportunities and challenges for personalized survey data modeling. ACM UMAP 
  6. CNIL. (2025) Recommandations IA & RGPD — Qualité, pertinence des données, documentation des biais, contrôle humain
  7. ESOMAR. (2024) 20 Questions to Help Buyers of AI-Based Services
  8. Market Research Society (MRS). (2024) Using synthetic respondents for market research

 POUR ACTION 

• Echanger avec l’interviewé(e) : @ Luc Balleroy

Echanger sur LinkedIn au sujet de cette tribune

Vous avez apprécié cet article ? N’hésitez pas à le partager !

CET ARTICLE VOUS A INTÉRESSÉ ?

Tenez-vous régulièrement informé de notre actualité et de nos prochains articles en vous inscrivant à notre newsletter.