Le big data : menace mortelle ou opportunité pour les équipes études en entreprise ? Interview de Simon Pioche, nouveau DGA de Socio

2 Mar. 2015

Partager

L’engouement pour le big data risque-t-il de retomber ? Comment évoluent les besoins et les demandes des entreprises autour de cet enjeu ? Quel impact l’hyper disponibilité des données aura-t-elle pour les équipes études au sein des entreprises ? Peut-elle mener à la disparition de cette fonction ? Ce sont les nombreuses questions que nous avons posées à Simon Pioche, dont l’arrivée au sein du groupe NP6 en tant que DGA de Socio peut apparaître comme un signe de plus de l’affaissement des frontières entre l’univers de la data et celui des études dans leurs contours habituels.

MRNews : Vous venez d’intégrer le groupe NP6 en prenant la fonction de DGA de Socio aux cotés de Bruno Colin. Votre parcours antérieur vous a mené chez Millward Brown, puis chez GN Research dont vous étiez le CEO. En d’autres termes, vous êtes un homme issu de l’univers des études au sens classique du terme, qui arrive dans le monde de l’analyse des données. Faut-il y voir un signe emblématique des évolutions en cours dans l’univers des études ?

Simon Pioche : Oui, sans aucun doute. Le fait est qu’en tant que CEO de GN Research, j’avais déjà été amené à effectuer une sorte de bifurcation par rapport à l’univers traditionnel des études marketing. Même si l’activité principale de la société continuait à porter sur ces études, il était évident que ce marché là était en décroissance. A l’inverse, on faisait le constat d’une demande de plus en plus forte pour le traitement et l’analyse des données, précisément parce que les études classiques ne répondaient qu’imparfaitement aux besoins des entreprises, moins orientés vers la réflexion et la recherche d’insights que sur l’opérationnalité. C’était en tout cas flagrant pour les domaines que je connais le mieux, celui de l’expérience client et des médias. En échangeant avec Bruno Colin, il était évident que nos visions se recoupaient, avec cet enjeu clé de savoir comment traiter la data, en faire quelque chose qui fasse sens par rapport aux besoins du marché.

Qu’est ce que ce que votre arrivée signifie dans les ambitions de Socio ?

L’ambition de Socio est tout simplement d’être un expert « multi-data ». Nous souhaitons pouvoir apporter notre expertise et nos conseils dans l’utilisation du plus grand nombre possible de données, et ce y compris sur les données relatives à l’expérience client.

Pour être plus précis sur cette notion de « multi-data », peut-on évoquer les différentes natures de données que cela recouvre ?

Bien sûr. La première nature de données correspond à ce qu’apportent les études classiques, celles au travers desquelles, par interrogation, on obtient plus ou moins directement les informations dont on a besoin. Il n’est bien sûr pas question de se priver de cette source-là. Par ailleurs, il existe toutes les données comportementales. Le fait que tel client est possesseur de tel produit ou utilisateur de tel service, les quantités achetées, les cycles d’achat… Ou bien encore le fait que tel consommateur ait appelé le service client, ou se soit connecté sur le site de l’entreprise. Ce sont toutes les données transactionnelles, liées aux interactions entre le client et l’entreprise. Ces données sont factuelles. Elles ne disent rien quant aux motivations ou à la tonalité de la relation. Il y a ensuite de la data qualitative, principalement sous forme de verbatims recueillis sur les forums ou les réseaux sociaux. Puis les data internes à l’entreprise, tout ce que l’on peut considérer comme étant la mémoire interne des process de l’entreprise (qui a fait quoi, quand, etcétéra.). Il y a bien sur toutes les données de surf sur internet. Et puis enfin des données très larges, qui correspondent à ce que certains appellent l’Open data. Ce sont des données génériques, notamment de type économique, géomarketing, ou même météorologique. L’idée est bien que nous devenions progressivement experts non pas de tous les secteurs d’activité mais de toutes ces natures de données, fortement hétérogènes ;

En 2014, il a beaucoup été question de Big Data. C’est sans doute un des termes  qui a le plus été présent dans la bouche des acteurs des études…

Il est pratique d’utiliser ce terme-là, mais j’avoue ne pas en être très « fan ». Et je crois en réalité que l’on est rentré dans une phase où cette notion de big data est en train « d’éclater » entre différentes problématiques.

Comment définiriez-vous celles-ci ?

Le premier aspect est celui de la gestion de la data, le fait de construire des DMP, des datamart. Comment on collecte des données, comment on s’assure de leur fiabilité, comment on les enrichit, en faisant notamment collaborer des bases de données qui à un instant T, n’ont pas de clés communes. Une fois que cette architecture sera en place, les utiisateurs pourront aller chercher les données dont ils ont besoin, et qui parfois ne seront pas du tout de l’ordre du big. Au départ, on a bien affaire à du « big », mais dans les usages, la quantité de données sera directement conditionnée par les objectifs. Il y a aussi un point de distinction essentiel entre les besoins qui seront associés à du « temps réel », que l’on doit distinguer de ceux où l’on peut s’intéresser à quelque chose de plus « froid ».

Quel est votre pronostic pour 2015 ? Faut-il s’attendre à ce que cet enjeu du big data soit toujours aussi présent, ou bien au contraire à ce que le soufflet retombe un peu ?

Sur le fond, je ne crois pas une seconde que cet enjeu va perdre de son importance. Bien au contraire. Mais il est vraisemblable que l’on retrouve les étapes classiques qui accompagnent l’arrivée de toute innovation importante. Dans un premier temps, tout le monde trouve cela extraordinaire. Puis vient une seconde phase où les gens regardent les choses un tout petit peu plus concrètement, et en découvrent les limites. C’est le moment où ils disent « c’est nul, ça ne marche pas ! ». Et puis arrive la 3ème phase, où l’on découvre vraiment ce qui peut être mis en oeuvre, en faisant la part des choses entre la réalité et les fantasmes. Aujourd’hui, nous sommes encore dans la 1ère phase ; il faut donc s’attendre à un probable phénomène de déception dans les mois à venir.

Voyez-vous des évolutions significatives à la fois dans la nature des demandes qui sont adressées à Socio, et éventuellement dans la nature de vos clients ?

Nous voyons en effet des évolutions très significatives. Si l’on revient quelques mois en arrière, les besoins dominants étaient de l’ordre de la pédagogie. Les gens dans les entreprises avaient d’abord et avant tout besoin de comprendre ce qu’était le phénomène de la big data. Aujourd’hui, ce sont les chantiers de type POC (Proof of concept) qui font florès. A notre sens, c’est une excellente façon d’aborder le problème. On essaie concrètement de voir ce que l’on peut faire, à partir échantillon de données. Ou bien on procède à un assessment. En fonction d’un objectif donné, on examine ce qu’il est possible de faire avec les données disponibles, et sous quelles conditions.

En d’autres termes, on est passé du stade de la pédagogie à l’étude de faisabilité.

Cela résume bien en effet la tendance dominante. 100% des projets n’aboutiront pas, mais au moins on avance, on voit ce qu’il est possible de faire – ou de ne pas faire – et à quel coût. Et on se cale ainsi des objectifs réalistes par rapport aux données disponibles.

Il semblerait qu’au moins dans un certain nombre d’entreprises (et pas des plus petites), la fonction Etudes soit un peu chahutée, avec des cures d’amaigrissement et parfois même des disparitions. Est-ce que cela rejoint vos propres observations ?

Oui, cela semble assez évident. Le phénomène est plus ou moins flagrant selon les secteurs d’activité, les plus concernés étant ceux des télécoms ou de la banque. Comme par hasard, ce sont des secteurs dont l’activité au quotidien génère beaucoup de data, avec de très nombreuses « traces » quant à l’expérience des clients.

En clair, pensez-vous que l’hyper-disponibilité croissante des datas constitue une menace mortelle pour les équipes études ?

Il me semble évident que oui. Soyons clairs, dans beaucoup d’entreprises, les équipes études se sont habituées à une sorte de situation de monopole dans la connaissance des clients. Et elles ont adopté un certain nombre de réflexes quant aux modes de recueil à utiliser, ainsi qu’aux conditions à mettre en œuvre. Elles se retrouvent aujourd’hui dépassées par les demandes qui émanent des directions générales, qui ont pris conscience de l’intérêt qu’il pouvait y avoir à utiliser ces datas qui sont le plus souvent disponibles gratuitement, et qui pensent qu’il y a matière à la fois à faire des économies et à disposer d’éléments très opérationnels pour la gestion de l’entreprise. Si les équipes études se crispent, refusent d’utiliser ces données ou si plus largement elles donnent le sentiment de ne pas être capable de les utiliser, la sanction sera brutale. Les directions générales confieront l’analyse de ces données à d’autres équipes. On le voit déjà dans un certain nombre d’entreprises, où ce sont des équipes opérationnelles proches des problématiques de CRM qui s’en emparent. Ou bien cela sera confié aux fameux data-scientist. Mais je crois néanmoins que tout n’est pas joué d’avance. Ce phénomène peut aussi être une opportunité pour les gens d’études.

En quoi est-ce opportunité pour eux ? Comment les équipes études doivent-elles exploiter celle-ci ?

Je crois que les personnes qui baignent dans la culture des études ont un avantage précieux. C’est dans leur ADN même : ils savent factoriser l’information, résumer un très grand nombre de données autour de quelques grands facteurs pertinents. Ils savent simplifier l’information, ce qui est quand même une compétence précieuse dans un contexte de trop plein de données. Mais pour cela, elles doivent en passer par une sorte de révolution mentale. Elles doivent arrêter de se pincer le nez lorsqu’il est question d’utiliser ces données non structurées à priori. Et accepter de mettre leur nez dedans. Philosophiquement, cela signifie qu’il faut lâcher – avec discernement bien sûr – un certain nombre de notions qui renvoient parfois à des combats d’arrière-garde. On s’arc-boute souvent sur la notion de représentativité, mais celle-ci n’a rien d’absolu : la question est de savoir de quoi l’on veut être représentatif. Je crois qu’il n’y a pas d’autres options pour ces équipes et plus largement pour nous qui sommes issus de cette culture. Si nous ne voulons pas disparaitre, il faut absolument que nous nous appropriions la maitrise de l’analyse de ces données, avec toutes les remises en cause que cela suppose.

Pour terminer, voyez-vous des entreprises ou des secteurs qui sont en avance de phase dans cette capacité – via les équipes études – à intégrer ces nouvelles sources de données dans la connaissance des clients ?

Oui. Je pense à des acteurs du domaine de l’automobile, où les équipes études ont vraiment pris la mesure de cette opportunité. On voit également des initiatives qui nous semblent très prometteuses dans l’univers de l’assurance. Mais je suis persuadé que cela peut s’étendre à plein d’autres secteurs d’activité.


 POUR ACTION 

• Echanger avec l’interviewé(e) : @ Simon Pioche

Vous avez apprécié cet article ? N’hésitez pas à le partager !

CET ARTICLE VOUS A INTÉRESSÉ ?

Tenez-vous régulièrement informé de notre actualité et de nos prochains articles en vous inscrivant à notre newsletter.