Data Natives

A finales de noviembre tuve la oportunidad de hablar en Data Natives, evento que se realiza en Berlín y que en este año celebraba su cuarta edición. El formato del evento es muy interesante. Realizado en un edición de cinco plantas, en cada una de ellas se distribuyen diferentes partes del evento (desde la recepción y perchero, situados en la planta 1) pasando por patrocinadores y mini charlas (plantas 2 y 3) hasta las sesiones plenarias (plantas 4 y 5).

Para aquellos que no conocen en el evento… en los dos días que duró se acercaron hasta dos mil personas (distribuidas a lo largo del día) para escuchar en ponencias, participar en coloquios, visitar fabricantes, empresas, etc. Una de las cosas que caracteriza el evento es que las charlas son breves (10, 15, 20 o 25 minutos), lo que favorece ir al grano y sintetizar. Claro que si se busca un deep dive se tiene que hablar posteriormente con el ponente (aunque también han pensado en ello). Así que muchas de las charlas son para todos los públicos. En ediciones anteriores se caracterizaba por temas más técnicos, si bien en esta han abierto la puerta a temas más de gestión y cultura.

Y de hecho en esa línea estaba mi ponencia: “Interpreting Machine Learning: soon a top priority”.

A medida que las organizaciones se apoyan más en machine learning para redefinir sus procesos de negocio, abrimos la puerta a riesgos sistémicos (concepto que tomamos prestado de la economía) y es necesario evaluar su impacto considerando si nos encontramos en un entorno de bajo, medio o alto riesgo. De hecho, un aspecto que es relevante es que un escenario que inicialmente evaluamos como de bajo riesgo puede evolucionar hacia uno de mayor complejidad por los efectos de la aplicación del algoritmo (algo que frecuentemente no se suele considerar).

Para empezar a controlar estos nuevos riesgos es necesario incluir la interpretabilidad como una práctica habitual en el desarrollo e implementación de nuevos algoritmos.

Será cuestión de ponerse la pilas.

Fuente: Data Natives, Digital, Conference, 2018

Como ya comenté. Esto es solo el principio. Será cuestión de ponerse la pilas.

About Josep Curto Díaz

Josep Curto es el director académico del Máster en Inteligencia de Negocio y Big Data Analytics (MIBA) de la UOC. Así mismo es director de Delfos Research, empresa especializada en el diseño de estrategias de datos.
This entry was posted in Artificial Intelligence, Machine learning, Machine Learning Interpretability and tagged , , . Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *