Usabilidad y la falta de ética de datos

Los usuarios de ecosistemas digitales cada vez estamos más habituados a la integración entre los diferentes sistemas de información que usamos. Esta integración trasparente es habitual (o debería serlo) para los sistemas de información corporativos.

En el contexto de la inteligencia de negocio, analítica de negocio, big data y data science esto es el pan de cada día. Es posible conectar diferentes fuentes de datos ya sea con el propósito de extraer datos para el análisis, de guardar nuevo conocimiento para su posterior uso o de embeber la inteligencia en procesos de negocio.

Para los consumidores, en general esta integración se traduce en un aumento de usabilidad. Los servicios habituales como enviar un correo o distribuir un archivo se convierten en funciones a golpe de click.

Por un momento me gustaría centrarme en una de estas integraciones teniendo en cuenta uno de los ecosistemas digitales existentes: el de Apple. Los usuarios de este ecosistema frecuentemente tienen diferentes dispositivos y suelen tener flujos de interacción entre ellos. Por ejemplo, editar un documento en el iPhone y continuar en un Macbook. De forma natural, iCloud se ha convertido en el unificador de servicios y dispositivos de esta marca.

Una de las funciones que existe en este ecosistema es Universal Clipboard, que permite copiar y pegar entre dispositivos a través de iCloud. Esta funcionalidad es muy interesante no solo por lo que ofrece sino porque en WWDC20 hemos descubierto que va a incorporar una funcionalidad de privacidad. En realidad deberíamos llamarla un funcionalidad de transparencia. El usuario va a descubrir si alguna aplicación por defecto copia la información del universal clipboard aunque no la necesite.

Os preguntaréis porque esto es importante. Permite descubrir aquellas aplicaciones que vulneran sistemáticamente la privacidad de sus usuarios, es decir, permite conocer al usuario cada vez que esto sucede. No se trata de prohibir (que es un mecanismo habitual), sino de mostrar al consumidor la realidad de lo que sucede y él mismo puede escoger si vale la pena ser un usuario de dichas aplicaciones. Simplemente una medida excelente.

Sabemos que el regulador siempre irá por detrás. Sabemos que el propietario del ecosistema tiene un trabajo duro e ingrato para crear y mantener un ecosistema seguro y de confianza. Sabemos que algunos de ellos incluso no tienen los valores adecuados (como Facebook). Sabemos que muchas de estas empresas han trabajado en un marco legal que los protege (conocemos casos anteriores como Cambridge Analytica). Ahora conoceremos de primera mano aquellas aplicaciones como TikTok o LinkedIn, que han estado capturando toda la información posible del comportamiento de los usuarios. Mucho más grave el caso de TikTok (por ahora).

La actitud actual es pedir perdón sin pedir permiso (lo hacemos si es posible). Excusas como “era un bug”, “es todo para proporcionar un mejor servicio”, “no nos hemos dado cuenta”,… en definitiva vamos a observar de primera mano lo que ya conocíamos: una falta de ética ante la privacidad del usuario, una captura sistemática de los datos de usuario para el beneficio propio (o de terceros) y una aproximación a la inteligencia artificial, machine learning y el resto de técnicas de análisis que erode la confianza de la sociedad.

Espero que otras iniciativas para exponer estas prácticas se incorporen en otros ecosistemas digitales y que, esto suponga un punto de inflexión para todos los profesionales de este sector. Pensadlo por un momento: de verdad queremos un mundo como el de minority report.

About Josep Curto Díaz

Josep Curto es el director académico del Máster en Inteligencia de Negocio y Big Data Analytics (MIBA) de la UOC. Así mismo es asesor en el diseño de estrategias de datos.
This entry was posted in Artificial Intelligence, Big Data, Business Analytics, Business Intelligence, Data Ethics, Data Privacy, Ethics and tagged , , . Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *