Ética de los datos: es hora de arriesgar, no solo cumplir

Jamie Barnard, Pedro Pina / Abril de 2021

Jamie Barnard es asesor general de medios y marketing globales de Unilever, además de ser el presidente del Comité de Ética de Datos de la World Federation of Advertisers (WFA), donde dirigió la elaboración del informe Data Ethics: The Rise of Morality in Technology. Jamie ha respondido a las preguntas de Pedro Pina, vicepresidente de Soluciones de Clientes y Agencias Globales de Google, acerca de cómo deben concebir la ética de datos los líderes actuales en el contexto de la sociedad digital en la que vivimos.

An illustrated gif of a woman with long hair standing next to a wall that looks like a bar graph. In her shadow, cast on the tallest two bars, she appears to wear a fluttering superhero cape.

Pedro Pina (Google): Una vez me dijiste que las marcas debían abordar los problemas relacionados con la privacidad online y los reglamentos de gestión de datos con "valentía", y que ya había que olvidarse de "la prudencia, el mero cumplimiento o la espera". Sin embargo, eso último es justo lo que este tema le sugiere a la mayoría de las personas. Cumplir el RGPD y otras normativas es fundamental. Me gustaría que profundizaras sobre este tema. ¿Cómo se debería abordar?

Jamie Barnard (Unilever): Las empresas pioneras van más allá del cumplimiento normativo, por muy difícil que parezca. El cumplimiento normativo es un punto de partida que, por una parte, protege los derechos humanos fundamentales de los usuarios y, por otra, permite a las empresas cubrirse las espaldas frente a los espinosos requisitos legales. Sin embargo, puede servir de poco de cara a la opinión pública. Si la gente piensa que las prácticas de una empresa relacionadas con los datos no son éticas, su reputación se verá dañada por mucho que demuestre que se ajustan a la ley. Esa es la razón por la que las marcas deben definir y seguir un código ético.

Hay empresas estupendas que inspiran confianza porque son pioneras en materia de ética e integridad. En otros casos, lo importante son los pequeños detalles.

Voy a poner un ejemplo muy claro. Hace unos años, descargué la aplicación de una red social. Al registrarme, apareció una ventana emergente en la que se pedía acceso a mis contactos. En otro caso me habría puesto en guardia; pero las intenciones se dejaban muy claras: mis contactos se cifrarían y solo se usarían para que conectarme con los que usaban la aplicación. Después, mis datos se borrarían de forma permanente. Estas eran las garantías que yo necesitaba. Siempre recordaré su respeto por la privacidad y su enfoque abierto y transparente.

Mostrar tu compromiso con principios éticos es señal de valentía y, en última instancia, fomenta la confianza.

"Mostrar tu compromiso con principios éticos es señal de valentía y, en última instancia, fomenta la confianza".

Pina: La privacidad no suele concebirse como el tema más estimulante del mundo. Aunque sea importante, no parece resultar interesante. ¿Cómo es posible motivar al equipo y al resto del mundo empresarial para que se tomen la ética de datos como un concepto determinante?

Barnard: Lo interesante de la ética de datos es aliviar las tensiones entre la innovación basada en los datos y las expectativas de privacidad de los usuarios. Lo interesante es sobrepasar los límites de lo técnicamente posible sin poner en peligro el compromiso con la seguridad, la privacidad y el bienestar de las personas.

Si quieres innovar y ser el primero en algo, sin poner en riesgo tus valores, tú mismo te pones alto el listón. Cuando concibes la privacidad como un derecho fundamental, protegerla se convierte en una fantástica recompensa.

Piensa, por ejemplo, en la inteligencia artificial (IA). Imagina que una empresa diseña un sistema de IA con su mejor intención. Pongamos que, aunque al principio funciona perfectamente, los ingenieros se dan cuenta seis meses después de que el sistema está tomando decisiones con consecuencias no deseadas. Identificar y resolver retos complejos como ese es muy interesante. Lo que motiva a muchas personas es descubrir cómo reprogramar los principios éticos y morales de los sistemas inteligentes. El entusiasmo deriva del reto.

Pina: En Google, nuestro entusiasmo gira en torno a la labor pionera que estamos desarrollando con el sector para crear Privacy Sandbox y ofrecer a los usuarios más control sobre sus datos. ¿Cuáles son los principales obstáculos que impiden a los ejecutivos y directivos aplicar los cambios necesarios en este ámbito? ¿Cómo pueden resolver los problemas éticos?

Barnard: Para crear un buen sistema, debemos intervenir en los dilemas éticos y resolverlos antes de que se conviertan en problemas. Partiendo de eso, debemos abordar tres obstáculos.

Primero, tenemos que reconocer los puntos débiles. Si somos poco conscientes de los riesgos éticos, pasaremos cosas por alto. Debemos aprender a identificar y abordar esos riesgos.

Imagina que un ingeniero crea un método para optimizar los porcentajes de clics. Si las decisiones del algoritmo empiezan a tener un efecto negativo sobre la diversidad o a excluir a ciertos usuarios, puede que el ingeniero no se dé cuenta. Sin embargo, si sabe que tiene que buscar activamente este tipo de comportamientos, podrá intervenir y adaptar la medición de los resultados de forma más inclusiva. Aunque esta responsabilidad es compartida, la fase de diseño es la primera a la que afecta. En lo que respecta a los responsables de gestión, es interesante que ofrezcan formación a los equipos para ayudarles a buscar los riesgos éticos conscientemente.

Sin embargo, para conseguirlo es necesario tener visibilidad total sobre el flujo de datos. Si no se conoce parte de ese flujo, identificar los riesgos y asegurarse de que se aplican marcos de gobernanza puede ser difícil. Eso suele ocurrir cuando el flujo empieza o acaba fuera de tu organización. Por eso es tan importante trabajar con empresas transparentes que compartan tus valores y principios éticos.

"Para crear un buen sistema, debemos intervenir en los dilemas éticos y resolverlos antes de que se conviertan en problemas".

El segundo obstáculo es la responsabilidad proactiva. A veces, una persona o un equipo detecta un problema ético que deriva de un proceso o un sistema antiguo. En un mundo ideal, alguien notificaría y abordaría el problema; pero a veces es difícil entender los sistemas que llevan mucho tiempo en marcha. Además, puede que nadie se sienta responsable de encontrar la solución a un problema que no ha creado. Volvemos a la responsabilidad proactiva y compartida: hay que comunicar que existe el deber colectivo de coger el toro por los cuernos y abordar los problemas.

El tercer obstáculo es la falta de seguridad psicológica. Los líderes empresariales queremos que los empleados den un paso al frente y señalen los posibles problemas éticos que identifiquen. Sin embargo, muchos de ellos, sobre todo los más jóvenes sometidos a la presión de estar a la altura, puede que no quieran alzar la voz. Es posible que no quieran ralentizar los procesos ni enfrentarse a desacuerdos que pudieran perjudicarles. Los líderes deben hacer todo lo posible porque estas personas se sientan seguras de señalar aspectos preocupantes, incluso si se trata solo de una corazonada, sin temer que haya represalias. De lo contrario, los problemas continuarán y podrían agravarse con el tiempo.

Pina: Tu informe de la WFA fue la primera guía del mundo sobre la ética de datos para las marcas. ¿Qué te llevó a escribirlo y cómo ha cambiado tu mentalidad desde entonces?

Barnard: El informe de la WFA fue fruto del Comité de Ética de Datos de la WFA. En tanto que anunciantes responsables, intentábamos impulsar la transparencia y fomentar la confianza. El problema de entonces y de ahora es que el uso de los datos es profundamente complejo, y que la labor de descifrarlo se deposita en el consumidor. Los avisos de privacidad no son la solución más fácil para los usuarios.

Los miembros del Comité de Ética de Datos coincidimos en que la ética era un antídoto útil. Si logramos adoptar la ética en todo el sector, las marcas transmitirán más tranquilidad, confianza y credibilidad a los usuarios.

El informe de la WFA fue una manera de decirle al sector que debemos cambiar la narrativa dejando de hablar de la privacidad como un factor de riesgo y hablando de la privacidad y la ética de datos como un paso adelante hacia la mejora de la sociedad digital.

"Debemos cambiar la narrativa dejando de hablar de la privacidad como un factor de riesgo y hablando de la privacidad y la ética de datos como un paso adelante hacia la mejora de la sociedad digital".

Por mi parte, lo que más me atrae de la ética de datos es que puede fomentar la diversidad y la inclusión. Las intervenciones positivas pueden evitar sesgos, facilitar que se incluya a las personas excluidas y celebrar nuestras diferencias; que es precisamente lo que deben promover los medios digitales.

Pina: ¿Ha cambiado el enfoque que aplicas a la privacidad y la ética de datos en Unilever debido al informe? ¿Forma parte de la agenda del Consejo de Administración o es un tema de debate de la Junta Ejecutiva?

Barnard: El Comité de Ética de Datos de la WFA se movilizó en la primavera del 2019; y el informe refleja nuestra opinión colectiva. La intención fue en todo momento que las marcas aprovecharan lo que habíamos descubierto.

En Unilever, el enfoque inicial de ética de datos se centró en las prácticas éticas recomendadas sobre el uso de la IA y el aprendizaje automático. Sin embargo, ampliamos el enfoque bastante rápido para englobar la ética de datos en términos más generales.

En lo que respecta al apoyo del equipo directivo, tuvimos vía libre. Ahora, nos dedicamos a poner principios éticos en práctica. La aplicación práctica de los principios éticos ayuda a gestionar el riesgo y a que las personas tomen decisiones mejores, más rápidas y con mayor confianza. Cuando digo que no podemos limitarnos a ser prudentes o meramente cumplidores me refiero a eso: tenemos que ir un paso más allá y ser innovadores y emprendedores, pero sin sacrificar nuestros valores.

Es impresionante que la ética de datos esté fomentando la creatividad y la determinación de tantas personas. Es algo que me da esperanza en la mejora de la sociedad digital y en un futuro prometedor.

"No podemos limitarnos a ser prudentes o meramente cumplidores: tenemos que ir un paso más allá y ser innovadores y emprendedores, pero sin sacrificar nuestros valores".

Pina: Si los lectores tuvieran que quedarse con una sola lección del informe de la WFA, ¿cuál debería ser?

Barnard: En realidad, deberían ser dos, pero están estrechamente relacionadas.

La primera es que tenemos que concebir la ética de la misma forma que la deportividad. Los buenos deportistas tienen escrúpulos y hacen lo correcto aunque requiera un sacrificio. Su compromiso con la honestidad, la integridad y el juego limpio implica que deben esforzarse el doble que quienes buscan atajos, pero su triunfo es infinitamente mayor.

"Tenemos que concebir la ética de la misma forma que la deportividad".

La segunda va en la misma línea que la primera: fomentar la confianza es un trabajo en equipo. Todo el equipo es responsable de recoger y usar datos de forma segura, ética y transparente. Integrar la ética de datos en todo el sector requiere compromiso, cooperación y un liderazgo responsable por parte de los anunciantes, las plataformas tecnológicas, los editores, los desarrolladores y los proveedores de tecnología por igual. Si compartimos la labor, compartiremos el triunfo.

Cómo Google está detectando y bloqueando anuncios engañosos para proteger a los usuarios