Ethique et études marketing : le point de vue de l'expert Philippe Guilbert

#9 Le saviez-vous ? – Comment passer des principes éthiques aux actes dans les études marketing ?

15 Déc. 2021

Partager

RSE, diversité, éthique de la santé et de l’IA, Facebook papers… La pandémie et de nouvelles révélations de lanceurs d’alerte ont renforcé les débats éthiques, avec des citoyens qui demandent de plus en plus des actes et pas seulement des principes… Philippe Guilbert, expert Etudes auprès des organisations professionnelles (SYNTEC Conseil, ESOMAR Professional Standards Committee), fait le point sur ces enjeux et leurs applications concrètes dans ce nouveau Le Saviez-Vous ? 

LE POINT DE VUE DE PHILIPPE GUILBERT

L’éthique, en tant que branche de la philosophie qui s’intéresse aux comportements humains, permet de définir les principes moraux guidant la conduite en société. Ceux-ci peuvent chercher à être universels, mais ils sont aussi influencés par la culture, la religion, les traditions, les idéologies…  Les sciences et techniques ont également un rôle en soulevant régulièrement des questions éthiques : il ne s’agit généralement pas de modifier les grands principes moraux, mais plutôt de préciser comment les appliquer à des situations particulières (éthique appliquée ou déontologie). Ainsi, les progrès de la médecine ont suscité des débats éthiques en matière de fécondation in vitro, clonage humain ou accompagnement à la fin de vie. La révolution digitale génère elle aussi ses interrogations éthiques.

Ethique & digital

L’affaire Facebook – Cambridge Analytica a révélé au grand jour au printemps 2018 les risques de la data pour la vie privée et le bon fonctionnement des démocraties. Le scandale a suscité une prise de conscience publique sur les données personnelles, et favorisé l’entrée en vigueur du RGPD en mai 2018. En quelques années, de nombreux secteurs ont modifié leurs codes d’éthique professionnelle pour intégrer des articles sur la protection des données ou les renforcer s’ils existaient déjà. 

En parallèle, d’abondantes réflexions sont lancées sur l’éthique de l’intelligence artificielle : 

  • Amazon, Facebook, Google, DeepMind, Microsoft et IBM créent en 2016 le « Partnership on AI », une coalition d’entreprises, chercheurs et experts pour une IA responsable. 
  • En 2017, la conférence « Beneficial AI » à Asilomar définit 23 principes pour encadrer le développement de l’IA. 
  • La Commission européenne réunit 52 experts en 2018 dans le « High Level Group on Artificial Intelligence » qui publie l’année suivante 7 principes. 
  • L’OCDE fournit également 10 recommandations sur l’IA en 2019.

Ces échanges et recommandations ne sont pas suffisants aux yeux de plusieurs régulateurs. Le 19 avril 2021, l’autorité américaine de la concurrence (Federal Trade Commission) rappelle l’existence de lois interdisant la vente ou l’utilisation d’algorithmes biaisés à préjugés racistes ou générant d’autres discriminations (genre, religion, âge…) en matière d’accès à l’emploi, au logement, au crédit, à l’assurance, aux aides publiques… Deux jours après, le 21 avril, la Commission européenne publie un projet de régulation de l’IA pour établir des bases éthiques harmonisées respectueuses de la Charte des droits fondamentaux de l’Union européenne (dignité, liberté, égalité, solidarité, citoyenneté et justice) en imposant notamment l’évaluation des risques. Le projet européen définit une liste de pratiques à proscrire en raison d’un risque inacceptable (techniques subliminales de manipulation, scoring social…), et des systèmes d’IA à haut risque (santé, sécurité, transports, emploi…) autorisés, mais soumis à de strictes obligations (gestion des risques, documentation, transparence, contrôle humain, tests, conformité…). Bien sûr, le projet européen pourra être modifié par le Parlement européen et les Etats membres dans les prochaines années : la CNIL et ses homologues européens souhaitent notamment élargir la liste des systèmes IA interdits et restreindre les systèmes biométriques (dont la reconnaissance faciale). 

Comme pour le RGPD, le projet européen sur l’IA veut s’appuyer sur les acteurs économiques pour la mise en application. Au sein des entreprises, l’analyse des risques doit éviter ou fortement réduire les dangers de l’IA, de manière similaire à l’analyse d’impact sur la protection des données (AIPD dans le RGPD). Au niveau sectoriel, le code de conduite doit décrire les bons comportements IA à adopter, notamment dans les applications spécifiques du métier. Les professionnels sont en effet souvent mieux informés des dernières innovations et de leurs utilisations sectorielles que les régulateurs. Si les process en entreprises peuvent s’alourdir, les simples engagements individuels sur les valeurs et les principes généraux apparaissent insuffisants pour éviter les dérives.

Ethique des études

Pour les études marketing et opinion, le code de conduite ESOMAR est apparu dès 1948. Sa mise à jour ICC / ESOMAR de 2016 définit trois principes fondamentaux : transparenceprotection des données et responsabilité, notamment pour l’absence de préjudice pour les personnes concernées et la réputation du secteur. Les quatre pages d’articles du code précisent ces principes, mais ne peuvent rentrer dans les détails d’application. Ceux-ci sont fournis par des guidelines ESOMAR / GRBN récemment publiés.

En septembre 2021, « Duty of Care » couvre le principe d’absence de préjudice (« No harm ») avec des précisions sur la protection des données et les autres risques possibles par type d’études. 

  • Le même mois, « Primary Data Collection” passe en revue les responsabilités des professionnels dans le cadre des enquêtes classiques, en détaillant les différentes phases et les spécificités par type d’études.
  • En décembre 2021, « Reuse of Secondary data» s’intéresse aux données déjà existantes (web, réseaux sociaux, mobile…) et apparait dans une version provisoire soumise à consultation jusqu’à mi-janvier. Là encore, les responsabilités des professionnels vis-à-vis des personnes concernées, des clients et du grand public sont précisées.

Un simple engagement sur les principes généraux du code ICC/ESOMAR n’est pas suffisant si ces guidelines ne sont pas utilisés pour identifier les risques spécifiques et les gérer avec les meilleures pratiques possibles ! Ces documents sont en cours de traduction française pour favoriser leur diffusion et exploitation par tous les acteurs.

RSE & diversité

Bien sûr, l’éthique ne restreint pas aux réglementations et aux codes de conduite sectoriels. Une entreprise peut décider d’aller plus loin en matière de responsabilité environnementale, sociale et économique. Si les principes généraux de responsabilité sociétale sont devenus assez consensuels, les mises en application peuvent être très variées, en raison de la diversité des référentiels (Pacte mondial du Forum économique mondial, norme ISO 26000, Global Reporting Initiative des Nations Unies, Entreprise à mission…) et des procédures d’évaluation et de contrôles. Celles-ci sont pourtant essentielles pour rassurer les salariés et les parties prenantes sur les engagements. 

La diversité et l’inclusion des minorités dans ses équipes est également un enjeu éthique où l’entreprise peut décider d’aller au-delà du cadre réglementaire. Là encore, les principes éthiques peuvent être appliqués et suivis avec une attention très variable…

Quels que soient les principes et valeurs choisis, il est nécessaire d’éviter l’Ethics-Washing qui se limite à la communication interne et externe. Sans cela, les entreprises peuvent être confrontées à une perte de sens de salariés qui se tournent vers des initiatives individuelles comme Data for Good. Agir concrètement mobilise des ressources, mais ne pas le faire peut démotiver des collaborateurs et réduire également les ressources…

Mettre en application des principes éthiques implique donc d’être très vigilant sur les situations à risques bien identifiées, et de prévoir des procédures d’évaluation et de contrôles, si possible indépendants. Lorsque la réglementation et les codes professionnels imposent des principes éthiques, les procédures indispensables à leur application sont généralement décrites pour faciliter la mise en place dans les entreprises de toutes tailles. Cela a été le cas pour le RGPD et le sera sans doute pour l’IA dans quelques années. Rien n’empêche de reprendre cette démarche dans d’autres domaines (responsabilité sociétale, diversité et inclusion…) en se basant sur les meilleures pratiques sectorielles. Les acteurs les plus engagés sont souvent prêts à partager leur expérience, pour aider à anticiper et surmonter les difficultés de mise en œuvre !

Pour en savoir plus


 POUR ACTION 

• Echanger avec l’auteur : @ Philippe Guilbert

• Retrouver tous les précédents opus de la série #Le Saviez-vous ?

Vous avez apprécié cet article ? N’hésitez pas à le partager !

CET ARTICLE VOUS A INTÉRESSÉ ?

Tenez-vous régulièrement informé de notre actualité et de nos prochains articles en vous inscrivant à notre newsletter.