Éthique des données : s’engager au-delà de la simple mise en conformité

Jamie Barnard, Pedro Pina / avril 2021

Jamie Barnard est directeur juridique – Marketing et Media International chez Unilever. Il s'est entretenu avec Pedro Pina, VP Clients internationaux & solutions agences chez Google, sur la façon dont on peut appréhender la gestion des données de façon éthique.

An illustrated gif of a woman with long hair standing next to a wall that looks like a bar graph. In her shadow, cast on the tallest two bars, she appears to wear a fluttering superhero cape.

Pedro Pina, Google : Au sujet du respect de la vie privée en ligne et de la réglementation des données, vous m'avez dit un jour que les marques devaient être "courageuses", et que ce n'était pas le moment d'être "prudent, ou sur la retenue". Pouvez-vous m'en dire plus sur votre approche ? Comment les entreprises doivent-elles l'aborder ?

Jamie Barnard, Unilever : Les entreprises les plus innovantes ne se contentent pas de se mettre en conformité. Se mettre en conformité est essentiel, pour défendre les droits humains fondamentaux d'une part, et protéger les entreprises sur le plan juridique d'autre part. Toutefois, cela revêt un intérêt limité auprès de l'opinion publique : si les gens pensent que les pratiques d'une entreprise en termes de données ne sont pas éthiques, elle ne changera pas sa réputation en démontrant simplement qu'elle respecte la loi. C'est pourquoi les marques doivent aller plus loin.

Il existe des entreprises qui ont la confiance des utilisatrices et utilisateurs, car elles montrent la voie à suivre. J’ai un exemple en tête : il y a quelques années, je télécharge l’application d’un réseau social. Lors de l'inscription, un pop-up me demande d'accéder à mes contacts. Habituellement, cela me met la puce à l'oreille, mais la démarche est cette fois-ci parfaitement claire : mes contacts seront chiffrés et seulement utilisés pour me mettre en relation avec mes ami·es existant·es qui ont déjà l'appli. Ensuite, mes données seront définitivement supprimées. Il n'en fallait pas plus pour me rassurer. Je n'ai jamais oublié le respect de cette application pour la protection de la vie privée, ni son approche ouverte et transparente.

En agissant de façon responsable, vous démontrez votre engagement et, à terme, vous renforcez la confiance.

"En démontrant votre attachement aux principes éthiques, vous démontrez votre engagement et, à terme, vous renforcez la confiance des utilisatrices et utilisateurs."

Pedro Pina : La confidentialité est souvent perçue comme un sujet important mais complexe. Comment motivez-vous vos collègues et l'entreprise au sens large pour que l’usage raisonné des données soit perçu comme essentiel ?

Jamie Barnard : L'innovation technologique autour de la confidentialité est clairement l'élément qui fédère et engage les équipes. Prenons l'exemple de l'intelligence artificielle (IA). Imaginons une entreprise qui conçoit un système d'IA avec les meilleures intentions. Au début, il fonctionne parfaitement, mais au bout de six mois, les ingénieur·es constatent que le système prend des décisions aux conséquences inattendues. Relever des défis est clairement motivant, d'autant plus quand ils touchent à la morale.

Pedro Pina : Chez Google nous sommes heureux de pouvoir faire avancer la réflexion avec le projet Privacy Sandbox et de permettre aux utilisatrices et utilisateurs de mieux gérer leurs données. Quels sont les principaux obstacles qui empêchent les leaders d'effectuer les changements nécessaires dans ce domaine ?

Jamie Barnard : Afin de créer un système sain, nous devons intervenir pour résoudre ces dilemmes éthiques avant qu'ils ne deviennent des problèmes. La réflexion à ce sujet doit être basée sur trois points.

Tout d'abord, nous devons identifier les angles morts. Si nous ne sommes pas pleinement conscient·es des risques éthiques, nous passerons à côté de certaines choses. Nous devons nous former pour identifier ces risques et y faire face. Par exemple, si un·e ingénieur·e crée un système pour optimiser les taux de clics, il/elle peut ne pas se rendre compte que les décisions de l'algorithme commencent à avoir un impact négatif sur la diversité ou à exclure certaines personnes. Si on est attentif à ce type de problème, on peut intervenir et s’efforcer de mesurer les performances de façon plus inclusive. Il s'agit d'une responsabilité partagée, mais elle commence lors de la phase de conception. Du point de vue du management, il est judicieux de mettre en place des formations pour aider vos équipes à être particulièrement attentives aux risques éthiques. Cette approche nécessite aussi une visibilité de l'intégralité du flux de données. Il peut être difficile d'identifier les risques et de s'assurer que des modèles de gouvernance sont en place si une partie du flux de données est inconnu (cela se produit généralement s'il commence ou se termine en dehors de votre organisation). C'est pourquoi il est si important de travailler avec des entreprises transparentes, qui partagent vos valeurs et vos principes éthiques.

"Afin de créer un système sain, nous devons intervenir pour résoudre ces dilemmes éthiques avant qu'ils ne deviennent des problèmes."

Le deuxième obstacle est la responsabilité. Il arrive qu'une personne ou une équipe repèrent un problème éthique provenant d'un ancien système ou processus. Dans un monde idéal, elles signaleraient le problème et le résoudraient. Mais il peut être difficile de détricoter des systèmes qui sont en place depuis longtemps. Les gens peuvent considérer qu'ils ne sont pas personnellement tenus de trouver une solution à un problème dont ils ne sont pas à l'origine. Nous en revenons donc à la responsabilité partagée, et à l'importance de communiquer : chacun·e doit prendre le taureau par les cornes et s'atteler à résoudre les problèmes.

Le troisième obstacle concerne la sécurité psychologique. En tant que leaders d'entreprises, nous voulons que les gens s'impliquent et signalent les éventuels problèmes éthiques qu'ils repèrent. Malheureusement, de nombreuses personnes (en particulier les employé·es les plus jeunes qui ont la pression du résultat) sont parfois réticentes à s'exprimer. Elles veulent probablement éviter tout conflit ou ralentissement des processus, qui pourraient avoir des répercussions négatives. Les leaders doivent s'assurer que ces personnes peuvent signaler des sujets de préoccupation en toute sécurité, sans craindre les représailles, même si elles ont le simple pressentiment que quelque chose ne va pas. Sinon, les problèmes persistent et peuvent s'empirer au fil du temps.

Pedro Pina : Votre rapport pour la WFA constitue le premier guide mondial sur l'éthique des données pour les marques. Comment avez-vous été amené à le rédiger et comment votre réflexion a-t-elle évolué depuis ?

Jamie Barnard : Ce rapport a été initié par le Data Ethics Board de la WFA. En tant qu'annonceurs responsables, nous avions pour objectif d'améliorer la transparence et de renforcer la confiance des utilisatrices et utilisateurs. Or, l'utilisation des données est toujours aussi complexe, et les consommatrices et consommateurs ont souvent la lourde tâche de les décoder.

Le Data Ethics Board a convenu que l'éthique constituait un antidote utile. Si nous pouvons adopter des principes éthiques à l'échelle du secteur, nous pourrons rassurer les internautes, renforcer leur confiance et gagner en crédibilité.

Avec ce rapport, nous disons aux actrices et acteurs du secteur que nous devons changer de discours : au lieu de présenter la confidentialité comme un facteur de risque, nous devons considérer le respect de la vie privée et l'éthique des données comme une étape positive vers une société digitale saine.

"Nous devons changer de discours : au lieu de présenter la confidentialité comme un facteur de risque, nous devons considérer la confidentialité et l'éthique des données comme une étape positive vers une société digitale saine."

Pedro Pina : Chez Unilever, ce rapport a-t-il changé votre approche de la protection de la vie privée et de l'éthique des données ? Ce sujet est-il désormais débattu au niveau du conseil d'administration et de la direction ?

Jamie Barnard : Le Data Ethics Board de la WFA s'est mobilisé au printemps 2019, et le rapport reflète notre pensée collective. L'intention a toujours été d'aider les marques à profiter de tout ce que nous avons appris.

Chez Unilever, nous avons commencé par élaborer des bonnes pratiques sur l'éthique des données dans les domaines de l'IA et du machine learning. Assez rapidement, nous avons étendu notre approche pour inclure plus largement l'éthique des données.

Nous savions que nous n'aurions aucune difficulté à obtenir le soutien de notre direction. Nous devons maintenant nous efforcer de mettre en pratique ces principes éthiques. Nous pensons que leur application pratique aidera les gens à gérer les risques, mais aussi à prendre des décisions intelligentes rapidement et en toute confiance. C'était le sens de mon propos lorsque je disais qu'on ne devait pas simplement être prudent ou respectueux : il faut dépasser sa zone de confort, être entreprenant·e, sans renoncer à ses valeurs.

Je suis impressionné de voir à quel point l'éthique des données suscite l'imagination et la détermination d'un si grand nombre de personnes. Je suis convaincu que nous allons vers un avenir meilleur et une société digitale saine.

"Il ne faut pas simplement être prudent ou respectueux : il faut dépasser sa zone de confort, être entreprenant et progressif, sans renoncer à ses valeurs."

Pedro Pina : Si vous ne deviez retenir qu'une seule chose du rapport de la WFA, qu'est-ce que ce serait ?

Jamie Barnard : J'en retiendrais deux, mais qui sont étroitement liées.

Premièrement, nous devons considérer l'éthique de la même façon que le fair-play dans le sport. Un·e athlète sain·e et intègre peut travailler jusqu’à deux fois plus que celles et ceux qui ne respectent pas les règles, mais sa réussite n'en a que plus de valeur.

"Nous devons considérer l'éthique de la même façon que le fair-play dans le sport."

Deuxièmement, pour continuer de filer la métaphore, renforcer la confiance est un sport d'équipe. Nous sommes toutes et tous tenu·es de collecter et d'utiliser les données de façon sécurisée, éthique et transparente. Intégrer l'éthique des données dans le secteur nécessite que les responsables des campagnes, plates-formes et développement technologiques fassent tous preuve d'engagement, de coopération et de leadership responsable. Si nous travaillons ensemble, nous gagnerons ensemble.

CMO : comment mettre la protection de la vie privée au centre de votre marketing ?