http://www.marketresearchnews.fr/media/catalog/product/cache/3/small_image/250x/9df78eab33525d08d6e5fb8d27136e95/m/a/marc-antoine-jacoud.jpg

Du présent au futur des études marketing – Interview de Marc-Antoine Jacoud, directeur général chez Research Now.

20 Fév. 2012

Partager

Avec les panels, l’usage du online a progressé de manière fulgurante sur ces dernières années, au point de devenir le mode dominant dans le recueil quantitatif pour les études marketing. Mais ce développement ne se fait pas sans que certaines questions se posent : celle des pratiques en vigueur sur le marché, avec l’enjeu de la qualité des données ; mais aussi celle du devenir des études, et des évolutions les plus probables. Marc-Antoine Jacoud, directeur de Research Now pour l’Europe du Sud, s’est livré au jeu de nos questions sur ces grands points d’interrogation.

Le on-line a connu une progression fulgurante sur ces dernières années. Est-il réellement devenu le mode de recueil dominant dans les études marketing, côté « quanti » ?

En 2007, le on-line pesait 20% des études quantitatives en France (Source Syntec Etudes). Aujourd’hui, ce poids a dépassé le seuil des 40%, sachant que l’on raisonne ici en termes de dépenses, en euros. Si l’on raisonne en volume, l’ordre de grandeur est que plus de 2 interviews sur 3 se réalisent aujourd’hui en on-line, essentiellement via les access panels.

C’est la plus grande révolution dans l’histoire des études marketing ?

Si l’on résume ces vingt dernières années, je crois qu’il y a en réalité deux phénomènes majeurs. Le premier est l’arrivée du téléphone. Ce medium s’est tellement banalisé que cela peut paraître un peu surprenant d’évoquer cela, mais en réalité son adoption n’est pas si ancienne. A la fin des années 80, beaucoup de sociétés d’études et la plupart des annonceurs percevaient le téléphone comme incapable d’apporter un niveau de qualité comparable à celui du face-à-face, qui était le mode de recueil de référence, le seul à être perçu comme réellement fiable. Certaines sociétés importantes ont mis un peu de temps avant de s’ouvrir au téléphone. Avec les avantages indéniables de ce medium (rapidité, coût,…), la bascule s’est faite au début des années 90, avec une « part de marché » qui a considérablement progressé jusqu’à fin 90 – début 2000 au détriment du face à face.

C’est au début des années 2000 que démarre un nouveau « cycle », somme toute assez comparable, avec l’arrivée d’internet. A nouveau, une évolution technique permettait d’aller au devant des consommateurs. Pour ma part, je travaillais chez Ipsos, qui a été relativement précurseur sur le sujet, en créant Ipsos Access Panel en joint venture avec NFO. Au même moment, dans les pays anglo-saxons, des sociétés se sont crées sur ce positionnement. Dans les pays où le taux d’équipement était conséquent, Internet a tout de suite ouvert un champ de possibles vraiment considérable. Mais avec les mêmes questions que celle levées par le téléphone quelques années plus tôt : quelle est la qualité de la donnée,  dans quelle mesure les réponses de l’interviewé sont sincères, quels sont les biais liés à cette méthode, comment maitrise-t-on le processus d’interrogation,…

Ces questions se posent encore aujourd’hui fortement. Quelle est votre vision sur ces enjeux ?

Pendant un certain nombre d’années, la principale limite du online était celle de la faible pénétration d’internet, insuffisante pour assurer une représentativité de la population. Aujourd’hui, les taux d’équipement sont tels que le profil des internautes s’est considérablement rapproché du profil de la population générale. Certaines cibles posent des problèmes particuliers, nous y reviendrons ; Mais le constat global est néanmoins qu’aujourd’hui, avec les access panels, toutes les catégories de la population sont susceptibles d’être panélisées et correctement représentées, avec bien sûr des degrés de difficultés et des coûts sensiblement variables. Cela ne veut pas dire qu’il en sera toujours ainsi. Cela ne veut pas dire non plus que tous les panels se valent quant à la qualité des données obtenues en output.

Parlons précisément de ces enjeux de la qualité ! Qu’en est-il de ces différences et de ce qui les fondent ?

Soyons clairs, il y a panel et panel. Beaucoup d’offres présentes sur le marché reposent sur ce même principe général qu’est le panel. Mais cela recouvre des pratiques véritablement différentes d’une société à une autre. La liste des conditions pratiques permettant d’obtenir une bonne qualité des données est relativement longue, mais il y a néanmoins quelques paramètres qui sont tout à fait clés. Je pense en particulier à la question du mode de recrutement (est-il mono ou multi-mode ?), et à la grande question des règles de sollicitation, ces points faisant qu’à l’arrivée, le panel ne va pas réagir de la même façon.

Au fond, une ligne importante sépare deux écoles. La première part du principe qu’un paneliste doit être choisi, invité à participer à l’enquête, mais qu’en aucun cas il ne peut faire la démarche spontanée de se connecter à une plateforme pour répondre à une enquête dont il choisit le thème. Une autre école consiste à s’affranchir de ce principe. Pour ce qui est de Research Now, nous nous en tenons à la première. Si l’on veut rester dans des cadres d’études proches de ceux qui ont été utilisés historiquement, les individus doivent être choisis en fonction de leur profil, sachant que l’on peut échantillonner les populations selon un spectre de critères extrêmement large. En invitant des individus à choisir les thèmes sur lesquels ils vont répondre, on retourne la démarche et on introduit un biais manifeste : celui de l’auto-sélection. Il y a bien sûr une limite qualitative à cela. Sur un sujet à forte composante technologique, il y a quand même une limite à ce que ne répondent que des individus technophiles !

Vous évoquez également la question des fréquences de sollicitation, qui constitue un paramètre qualitatif très important…

Tout à fait. Les deux sont liés. Le  tout est de savoir comment positionner le curseur et arbitrer par rapport à ces deux paramètres. La politique de Research Now est de ne procéder que par invitation, et de maintenir les panélistes dans une relation où il y a la fois la proximité nécessaire et la plus grande neutralité possible. Notre souci constant est de pas induire de biais du fait d’une trop forte sollicitation des panélistes, et éviter ainsi que ceux-ci ne deviennent des « professionnels » de la réponse. Notre règle est donc de jamais dépasser 12 sollicitations par an, avec un espace d’au moins 1 mois entre chacune d’elles, avec des exclusions thématiques : si vous êtes interrogé sur une thématique donnée, vous ne serez pas sollicité sur cette thématique pendant les 3 mois qui suivent. D’autres sociétés ont d’autres pratiques, avec des fréquences de sollicitation parfois nettement supérieures. En tant qu’homme d’études, cela me semble constituer un biais majeur, même si l’intérêt économique à procéder ainsi est évident.

Ces différents modes de fonctionnement sont présents sur le marché, et je n’ai pas d’autres jugements à apporter qu’un jugement qualitatif ; mais il est important que les utilisateurs soient bien conscients des parti-pris des différentes offres présentes sur le marché, et de ce que cela implique. C’est un enjeu vraiment majeur.

Finalement, ce sont les annonceurs qui supportent le plus le risque de la non qualité, et ce sont ceux qui sont les moins armés pour apprécier cette qualité… Qui doit agir ?

Si la data, et donc l’analyse, et donc les recommandations ne sont pas de bonne qualité, le problème se posera à tous. Toute la chaine des intervenants est donc concernée par ce risque.

C’est d’abord notre responsabilité à nous, providers on line, de mettre en avant ces notions de qualité, d’argumenter sur nos méthodes, et d’ouvrir ce débat. Un annonceur final n’a pas forcément ni le temps ni l’envie de rentrer dans le détail de celui-ci. Les instituts sont plus enclins à le faire. Mais ils peuvent aussi être pris en tenaille entre le besoin de qualité et la nécessité de défendre leurs marges dans un contexte difficile. En même temps, le secteur est assez transparent pour les connaisseurs : les sociétés d’études savent à peu près qui fait quoi, ce qui les met naturellement en situation d’exercer une certaine régulation sur le marché.

On évoque le cas de certains annonceurs, qui abandonnent le on-line…

Les déçus du on line sont peut-être des clients qui ont procédé à une migration un peu trop brutale. Pour se faire dans de bonnes conditions et éviter ces déceptions, cette migration doit s’accompagner d’une très grande vigilance de la part des consommateurs d’études. Elle ne peut pas se faire en un claquement de doigts. Il n’est pas possible de tout migrer, et des « parallel tests » sont fortement recommandés. Ce sont les mêmes précautions et démarches que celles qui ont été mises en œuvre il y a quinze ans, lorsqu’on est passé du face à face au téléphone.

Quel est le devenir des panels on-line ?

C’est un modèle que l’on peut qualifier aujourd’hui de « satisfaisant » sous l’angle de la technique, de la maitrise de son économie et de sa qualité.  Mais je pense que ce modèle va fortement évoluer dans les 5 ans à venir.

Il y a un enjeu immédiat, qui est celui de l’équilibre des différentes pratiques que nous avons évoquées, et qui peut avoir une réelle incidence sur la durée de vie du modèle. Mais il y aussi des phénomènes de fond dont il faut tenir compte : les taux de réponse évoluent à la baisse, tous panels confondus. Il est de plus en plus difficile de recruter des individus, de plus en plus difficile d’obtenir leurs réponses quand ils ont fait l’effort d’être panélisés, et de plus en plus difficile de les fidéliser. Le phénomène est flagrant pour les cibles les plus jeunes, pour lesquelles facebook (ou d’autres média sociaux) a pris une importance telle que l’email est devenu un moyen de communication quasiment has-been ! On observe aussi une plus forte protection des individus vis-à-vis des sollicitations extérieures, et une plus forte réserve quant au fait d’être enquêté. En clair, la solution panel est aujourd’hui une solution mature et globalement satisfaisante, mais elle est amenée à évoluer.

Quelles sont donc les évolutions les plus importantes à venir ?

Il y une première évolution logique : l’entrée en force dans les outils des applications smartphones. Ces outils ont leurs contraintes, sur l’ergonomie et la durée des questionnaires notamment. Mais ils peuvent apporter beaucoup de fluidité. Avec la géolocalisation, on peut questionner des panélistes sur des sujets, des circonstances ou des lieux particuliers ; cela ouvre des champs applicatifs extrêmement intéressants quand la législation le permet. Cela peut aussi permettre de faire évoluer de façon intéressante la relation entre le gestionnaire du panel et l’individu panélisé.

La 2ème évolution forte, c’est l’arrivée en masse des réseaux sociaux, qui montent en puissance alors que progresse une relative désaffection vis-à-vis de l’email. Beaucoup d’informations circulent à travers eux sur les marques et les produits. Nous, les panélistes on line, avons intérêt à regarder ça de très prés, et à capter les personnes qui sont sur ces réseaux et ne seront jamais panélisables. L’idée est simple : les panels constituent une réponse A, les réseaux sociaux une réponse B, ces réponses étant complémentaires et non à opposer. C’est donc une opportunité colossale. Une des initiatives de Research Now a été d’acquérir Peanut Labs, qui est pionnière dans l’utilisation des réseaux sociaux à des fins d’études marketing. On peut ainsi mixer, «mélanger» des échantillons extraits de nos panels avec des personnes issus des réseaux sociaux.

Que faut-il penser du phénomène du « do it yourself » ?

C’est effectivement la troisième évolution majeure. Aujourd’hui, les études se réalisent selon un processus d’interaction classique : un access paneliste propose une offre au marché, celui-ci réagit en exprimant un besoin, qui fait l’objet d’une proposition. La chaine est très automatisée, mais il y a des interactions de personnes, pour vendre et produire. Avec le do it yourself, le client a accès à une plateforme, qui lui permet de scripter son questionnaire, de sélectionner son échantillon, de gérer son projet de A jusqu’à Z, uniquement en interaction avec des serveurs. Cela reste du panel online, mais selon un process complètement automatisé. C’est une tendance lourde. Les inputs et les outputs seront les mêmes qu’avant, mais cela bouleversera sans doute le pricing de nos offres et notre modèle économique.


POUR ACTION

Vous avez apprécié cet article ? N’hésitez pas à le partager !

CET ARTICLE VOUS A INTÉRESSÉ ?

Tenez-vous régulièrement informé de notre actualité et de nos prochains articles en vous inscrivant à notre newsletter.