Hitos y retos para el machine learning y la IA

Cuando se acerca el final del año tenemos tendencia a sumarizar cómo nos ha ido el año actual, en distintos campos o facetas de nuestras vidas, y seguidamente intentar señalar algunos puntos importantes como objetivos para el año siguiente.

En este blog no queremos ser menos, y aprovechamos un interesante artículo publicado en kdnuggets para revisar la opinión de algunos destacados actores sobre los hitos del año actual y los retos para el próximo año.

En concreto, se ha pedido a un conjunto de actores relevantes en este campo cuáles creen que han sido las mayores contribuciones en las áreas de aprendizaje automático (machine learning) e inteligencia artificial de este año y cuáles creen que serán los principales retos a abordar durante el próximo año.

Como resumen de los hitos más importantes durante el año 2017, los expertos consultados señalan cuatro puntos por encima de los demás:

  • Los éxitos de AlphaGo
  • La moda de aprendizaje profundo (deep learning)
  • La conducción autónoma (self-driving cars)
  • La influencia de TensorFlow en la tecnología de redes neuronales (neural networks)

En cuanto a los retos para el año 2018, cada uno de los gurús hace sus apuestas y predicciones partiendo de su área de conocimiento y dominio… y aunque no hay unanimidad en esto, tampoco se pueden ver predicciones contradictorias.

A continuación os apuntamos algunas de las tendencias más comentadas:

  • Transparencia en las predicciones de los algoritmos de machine learning, que permitan “entender” las decisiones tomadas por los algoritmos y comprobar que están alineadas con las leyes y regulaciones de los distintos países donde se aplican.
  • Continuación y consolidación de las estrategias vinculadas al dato y al aprendizaje automático por parte de muchas empresas ajenas a sectores tecnológicos.
  • Mejoras en el campo del Meta-learning

Aunque os recomendamos una lectura completa del artículo original y de cada una de las valoraciones y predicciones realizadas por estos gurús del área de machine learning e inteligencia artificial.

Se puede consultar el artículo original, que ha inspirado este, en el siguiente enlace:

https://www.kdnuggets.com/2017/12/machine-learning-ai-main-developments-2017-key-trends-2018.html

Jordi Casas-Roma es doctor en informática por la Universitat Autònoma de Barcelona (UAB, 2014), director del Máster Universitario en Ciencia de Datos (Data Science) y profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC, 2009), donde es responsable de asignaturas relacionadas con la minería de datos, machine learning y big data. Desde 2010 pertenece al grupo de investigación KISON (K-ryptography and Information Security for Open Networks).

Posted in Artificial Intelligence, Machine learning | Tagged , , , | Leave a comment

Cajamar UniversityHack 2018

Cajamar UniversityHack: la competición de analítica de datos más grande de España vuelve a ponerse en marcha. En la edición de 2018 participan 20 Centros y 200 equipos. ¡Números muy significativos!

Cajamar UniversityHack 2018. Fuente: Cajamar

Y como os podéis imaginar la UOC participa en esta edición que empieza el 31 de enero y termina el 12 de abril.

¿En qué consiste?

Cajamar UniversityHack 2018 es un evento dirigido específicamente a los alumnos de los mejores centros formativos en Data Science de España. Cada centro podrá presentar hasta 10 equipos, compuestos por un máximo de 3 participantes cada uno.

Consiste en dos retos:

  • Wefferent Card Analytics: Te retamos a que crees la mejor aplicación y/o visualización autoconsumible usando datos anonimizados de transacciones con tarjeta en la ciudad de Murcia, con una selección de datos reales agregados del Grupo Cajamar entre los años 2015 y 2017. Puedes realizar un cuadro de mando, un ejercicio analítico exploratorio, una infografía, una web, un análisis gráfico avanzado… Sorpréndenos.
  • Salesforce Predictive Modelling: El poder adquisitivo de un cliente es uno de los ejes principales en el consumo de productos financieros siendo una variable crítica y de difícil cálculo. Uno de los retos a los que se enfrentan las empresas es predecir esta variable de cara a establecer segmentaciones estratégicas más eficientes que les ayuden en la toma de decisiones a la hora de ofrecer el producto más adecuado en cada momento a cada persona, según las necesidades de cada cliente. En este desafío dispondrás de 90 características anónimas que te permitirán estimar y predecir la renta de cada cliente.

¿Cómo apuntarse?

Cada equipo puede tener un máximo 3 Data Scientists por equipo por alumnos de 2016/17 ó 2017/18 de las formaciones seleccionadas de los centros participantes. Para apuntarse id a la página de http://www.cajamardatalab.com/datathon-cajamar-universityhack-2018/

¿Por qué?

No solo se trata de gloria y fama sino que también los tres mejores grupos en cada categoría van a recibir un premio en metálico.

Así que,… a nuestros alumnos de los programas en las ediciones 2016/17 y 2017/18 os animamos a formar equipo y apuntaros. !Seguro que será una experiencia fantástica!

Posted in Big Data, Data Science, UniversityHack | Tagged , , , | Leave a comment

¿Necesitas un centro de excelencia?

El centro de excelencia (o competencias) es un tema recurrente dentro de la inteligencia de negocio que está volviendo con fuerza con los temas de analítica. Es un tema tratado por Harvard Business Review, Gartner (tema recurrente desde 2001!) y otros.

En esencia, un centro de competencia es un equipo que es responsable de gestionar todos los aspectos de la estrategia vinculada a un aspecto, que en nuestro caso, son las estrategias del dato. Llamémoslas inteligencia de negocio, big data, data science, business analytics,…

Del ámbito del BI (que hemos conocido como BICC) ahora los centros de competencia se extienden para incluir big data y machine learning. Lo que ahora llamamos Analytical Center of Excellence (A-CoE).

¿Necesitamos uno A-CoE?

En 2011, Saafer y Zafar, en el artículo Impact of business intelligence competency center in success/ failure of B.I. applications, llegan a la conclusión que no tener un centro de competencia genera barreras al éxito en el despliegue de proyectos de inteligencia de negocio. Un año antes, SAS ya apostaba por el A-CoE.

Últimamente Davenport, también está recuperando el término remarcando los beneficios de este tipo de estructuras.

¿Necesito yo un A-CoE?

Todos los artículos anteriores analizan empresas complejas (por diferentes razones: son grupos empresariales, con múltiples divisiones, presencia en diferentes países,…). A mayor complejidad del la organización, mayor valor proporciona el CoE, coinciden los artículos, para poder orquestrar este tipo de iniciativas. Podría parecer que solo las grandes y complejas organizaciones necesitan este tipo de equipos.

Sin embargo, transformarse en una organización orientada al dato pasa por diferentes etapas, necesita de roles específicos como el CDO, de estrategias de activos para el dato, como el gobierno del dato, y dentro del gobierno de forma natural tenemos el estructuras de gestión similares a lo que sería un centro de excelencia.

Sea cual sea el camino hacia convertirse en una empresa orientada al dato, sea las técnicas analíticas o la gestión del dato, parece ser que en el camino nos encontramos con estructuras de equipo que velan por el dato en todas sus facetas.

Josep Curto es el director académico del Máster en Inteligencia de Negocio y Big Data (MiB) de la UOC. Así mismo es director de Delfos Research, empresa especializada en investigación de los mercados de Business Intelligence, Business Analytics y Big Data.

Posted in Big Data, Center of Excellence, CoE, Competency Center, Data Science | Tagged , , , , , | Leave a comment

Doctorado en Data Science: plazas y becas para el curso 2018/19

Después de años de éxito con el Máster en Inteligencia de Negocio y Big Data, y de haber iniciado este mismo curso el nuevo Máster Universitario en Ciencia de Datos, continuamos el despliegue de la oferta formativa y de investigación en el área de data science.

En este caso, os presentamos una nueva línea de “Data science” dentro del programa de doctorado NIT (Network and Information Technologies) de la UOC. El NIT es el programa de doctorado más técnico que se ofrece en la UOC, donde se pueden encontrar propuestas y líneas de investigación próximas a los grupos de investigación de la mayoría de profesores de los Estudios de Informática, Multimedia y Telecomunicación.

Concretamente, para las plazas de doctorado del año 2018, se han presentado cuatro propuestas dentro de la línea de “Data science”:

  • Privacy-preserving in Data Mining: En esta línea se investigan los métodos de preservación de la privacidad en procesos de minería de datos y aprendizaje automático (machine learning). En esencia, se trata de alterar los datos buscando un equilibrio entre dificultar la re-identificación de personas o individuos dentro de los datos anónimos y la utilidad en procesos de minería de datos de los mismos. Existen multitud de técnicas, dependiendo del tipo de datos (estructurados, semi-estructurados o con formato de grafo, o no estructurados) y del uso que se les pretenda dar. Dos de los modelos más conocidos en este campo son la k-anonimidad y la privacidad diferencial.
  • Data Mining and Community Detection in Graphs (Graph Mining): La detección de comunidades en redes sociales (y otros tipos de redes) es especialmente relevante en la actualidad, donde el auge de las redes sociales, en particular, y los datos, en general, han disparado la necesidad de clasificar entidades de todo tipo según sus patrones de similitud. En este trabajo se pretende avanzar en el estado del arte en la detección de comunidades, especialmente trabajando con grandes volúmenes de datos. Esto implica trabajar con tecnologías de big data que permitan la paralelización de las tareas y/o el uso de datos en streaming.
  • Data Mining and Deep Learning in Healthcare: En esta línea de investigación se combinan dos tendencias que han ganado mucha popularidad recientemente: se trata, por un lado, de los algoritmos de aprendizaje profundo (deep learning), básicamente redes neuronales con múltiples capas ocultas y arquitecturas complejas; y por otro lado, la adopción de la inteligencia artificial (IA) en procesos relacionados con el diagnóstico médico y la prevención de la salud. Por lo tanto, el objetivo principal de esta línea es contribuir al avance de la medicina personalizada a partir del empleo de algoritmos de minería de datos y deep learning.
  • Health Data Science: Esta investigación se propone en el contexto del eHealth Center (http://www.uoc.edu/portal/en/ehealth-center/index.html), cuyo objetivo es desarrollar procesos personalizados, predictivos, preventivos y participativos para la prevención de la salud y el bienestar. Por lo tanto, las propuestas en esta línea se enfocarán en la aplicación de técnicas de ciencia de datos sobre datos de salud, para promover la salud y el bienestar personalizados de los ciudadanos.

Podéis encontrar más información de estas líneas en la siguiente página web:

http://www.uoc.edu/portal/en/escola-doctorat/linies-recerca/linies-nit/data-science/index.html

Además de estas cuatro nuevas propuestas que acabamos de comentar, existen otras muchas líneas de investigación relacionadas con el ámbito de la ciencia de los datos, en determinados contextos, como por ejemplo en eLearning y learning analytics, donde los grupos e investigadores de la UOC tienen una amplia experiencia. El siguiente enlace muestra todas las líneas de investigación asociadas al programa de doctorado NIT:

http://www.uoc.edu/portal/en/escola-doctorat/linies-recerca/linies-nit/

Podéis encontrar más información sobre la convocatoria de acceso y admisión de los programas de doctorado para el curso 2018-2019 en el siguiente enlace:

http://studies.uoc.edu/web/estudia/en/doctoral-programmes/technologies-information-networks/presentation

Más allá de la oferta de plazas, también es relevante destacar que la UOC y el IN3 disponen de becas propias para la realización full-time de un programa de doctorado. Las bases de las becas se publicarán en la web de la Escuela de Doctorado tan pronto como estén disponibles. Las podréis consultar, junto con las convocatorias anteriores, en:

http://www.uoc.edu/portal/en/escola-doctorat/beques/beques-uoc-escola-doctorat/index.html

La fecha de finalización de la convocatoria es el 11 de febrero del 2018.

Os animamos a emprender un camino hacia la ciencia y la investigación, que seguro os aportará experiencia y riqueza personal, más allá de los conocimientos y valía profesional que un título de estas características aporta a cualquier profesional, ya sea en el mundo académico o profesional.

 

Jordi Casas-Roma es doctor en informática por la Universitat Autònoma de Barcelona (UAB, 2014), director del Máster Universitario en Ciencia de Datos (Data Science) y profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC, 2009), donde es responsable de asignaturas relacionadas con la minería de datos, machine learning y big data. Desde 2010 pertenece al grupo de investigación KISON (K-ryptography and Information Security for Open Networks).

Posted in Data Science | Tagged , , , , , | Leave a comment

Data Wars

Que el dato es un activo importante para una organización no es nada nuevo, se ha dicho en el pasado y su comparación como substituto del petróleo se va repitiendo cada cierto tiempo. Y ya sabéis: lo que se repite muchas veces o bien es cierto o bien lo convertimos en un mito que todo el mundo acepta (en linea de lo que comenta Yuval Noah Harari). De hecho, países como Arabia Saudi, lo tienen claro y han puesto en marcha un ambicioso plan para 2030 de redefinición del país como he descubierto tras hablar en el Misk Global Forum. Y mientras en algunos países aún estamos discutiendo de qué se trata esto.

Esto supone que las organizaciones debe cambiar su enfoque. No solo se trata de monetizar el dato (que es importante sin duda alguna) o de aplicar las tecnologías adecuadas de procesamiento y almacenamiento (adecuada me diréis! pudiera ser big data o no como pone en tela Álvaro) sino de definir una estrategia correcta para la gestión del dato como un activo crítico (o se convertirá en un activo tóxico como nos dice Nassim Nicholas Taleb, uno de nuestros autores favoritos). Esto último (lo tóxico estoy diciendo) es lo común de los mortales.

Y mientras las empresas que ahora se están planteando que deben analizar sus datos o que solo llevan unos años y están descubriendo que es un camino complejo, tortuoso, lleno de cantos de sirena, luces de neón, ¿qué hacen las empresas más relevantes del mundo?

Están inmersos en lo que podríamos llamar data wars (en una galaxia muy lejana). Empresas como Google, Facebook, Apple o Amazon (por destacar algunas) dan estocadas y fintas (y de hecho combinan múltiples estrategias) para atraer, conseguir y capturar el elusivo dato del consumidor: qué hacen, dónde, cuando y por qué. Y complementarlo con conjuntos de datos propios o externos que habiliten mejores estrategias hacia el consumidor.

En esto siempre he escuchado destacar a Facebook o Google por sus datos de cliente. Pero si pensamos un momento (y haciendo una simplificación un poco salvaje me dirán algunos), en Facebook o Google, los usuarios muestran sus preferencias (de formas diferentes), pero en Amazon las convierten en realidad. Podríamos preguntarnos ¿quién tiene el conjunto de datos de mayor valor?

Y esto se da en múltiples ámbitos a los que Amazon va entrando también (pensad en Amazon vs. Deliveroo). No debería ser extraño entender porqué todas estas empresas están extendiendo más sus tentáculos para expandir de forma eficiente sus conjuntos de datos. Y por ello vemos como van entrando en más y más mercados, buscando crear un conjunto de datos único y privado que les permita entender mejor al cliente.

Así que me pregunto: ¿está vuestra organización trabajando con el dato como un activo de valor? y ¿comprende las potenciales ventajas competitivas que puede generar?

Y si no lo estáis haciendo, quizá ya es el momento de empezar.

Josep Curto es el director académico del Máster en Inteligencia de Negocio y Big Data (MiB) de la UOC. Así mismo es director de Delfos Research, empresa especializada en investigación de los mercados de Business Intelligence, Business Analytics y Big Data.

Posted in Big Data, Data, Data Driven, Data Governance, Data Monetization | Tagged , , , | Leave a comment

¿Podemos hablar ya del Big Data? Yo acuso

Tengo la sensación de que ya se está asentando la polvareda que el Big Data generó hace 4 años (está siendo sustituida por la polvareda de la Transformación Digital,…) y creo que es momento de que los que nos dedicamos a este mundo o mundos adyacentes, echemos la vista atrás y hablemos de estos pasados años.

Ahora que el cloud se está bajando al fog (vaya por dios…), que la innovación se viste de transformación digital (¿perdón?), y que el Big Data ya suena a manido, es hora de que pensemos en qué ha consistido todo este lío.

¿Qué os ha quedado a vosotros de estos años de locura y desenfreno?, ¿Qué os ha quedado de proyectos millonarios, equipos gigantescos, posiciones nuevas (mis amigos, los CDO’s…)?

A mí lo que me ha quedado es la sensación de oportunidad desaprovechada.

Creo que los que nos dedicamos a esto tendríamos que haber usado el término de moda para hacer pedagogía sobre el buen uso de los datos y su análisis, llamar a las cosas por su nombre, y poner ciertos puntos sobre ciertas íes….

En resumen, haber hecho todo lo posible para que la gente se acercara al Data Literacy, y empezara a usar el small, el relevant, el smart, e incluso el Big Data (si es que hubiera alguna diferencia) pero con cabeza.

Desde la (pequeña) parte del mundo que yo veo la pregunta o, mejor dicho ¡preguntas!, son ¿hemos hecho algo nuevo?,¿algo distinto? ¿hemos generado más negocio a nuestras empresas o clientes? ¿podemos asegurar que los datos (del tamaño que sean) se usan mejor?

El Big Data, en la vida real, en las conversaciones en el mundillo, en el día a día, era (y es) un concepto engañoso, lo mismo adquiere el disfraz de altos volúmenes de datos (¿verdaderamente estamos capturando más datos que antes?), que de tecnologías concretas (¡Hola appliances!¡Hola NoSqls!).

Lo mismo se viste de BI o de Analytics (¿ponemos la frontera?) que de refinado de datos (¿oís el rumor de esos Data Lakes convirtiéndose en Data Swamps donde la gente aprovecha y tira sus bicicletas antiguas, sus bidones vacíos…? ¿no se dan un aire a los antiguos Data Stages?).

El Big Data ahora se vestía de stream analytics (para los más nuevos del lugar, esto es a lo que antes llamábamos BPM analítico, o real time decision making), ahora de Machine Learning (¿a qué máquinas habéis hecho aprender hoy?)…

No quiero sonar negativo o melancólico, más bien al contrario.

Para todos los profesionales del sector, nuevos o veteranos, que habéis vivido con estupor estos últimos tiempos sólo tengo un mensaje:

Tranquilos.

Habéis visto hablar de materias que domináis a personas que no saben si “predictivo” lleva una hache intercalada o no, habéis visto inversiones sin pies ni cabeza, propuestas de proyectos que si hubieran pasado por el filtro de un Business Case (el algodón no engaña) no hubieran sido más que quimeras abocadas al fracaso, habéis visto…

Tranquilos.

Ahora que se asienta el polvo, que la gente empieza a despertar de la resaca del Big Data sólo para salir a correrse la juerga de la Transformación Digital, ahora que el torrente de acrónimos, logos, nombres, y dibujos está pasando, justo ahora es el momento de que os deis cuenta de que, en el fondo, y como siempre, esto solo ha ido, y seguirá yendo de unas pocas cosas que seguro que sabéis hacer:

Recoger datos, almacenarlos o procesarlos, y ayudar a tomar decisiones, automáticas o humanas, apoyándose en técnicas de modelado, visualización, y matemáticas avanzadas.

Tan fácil. Y tan difícil.

Álvaro Galán, experto en Business Analytics y profesor colaborador docente del máster en Inteligencia de Negocio y Big Data.

Posted in Big Data | Tagged | 1 Comment

Paradise papers y el rol de la analítica en el puesto de trabajo

Paradise Papers es el último de los ejemplos de lo que podemos llamar periodismo de investigación en la era de los datos, o lo que se conoce como periodismo de datos. Es decir, es periodismo fundamentado en evidencias y datos, y que requiere de técnicas para la captura, el procesamiento, el almacenamiento, el análisis y la presentación propios de la inteligencia de negocio, la analítica de negocio, big data y data science.

No es el único ejemplo en este sector. Otro de los grandes ejemplos es Panama Papers, auspiciado también por ICIJ, que ha ganado un pulitzer como reconocimiento a la relevancia en lo presentado.

Este par de ejemplos no solo son relevantes porqué ponen en manifiesto aspectos a investigar por los diferentes países (hecho que ya es sumamente relevante) sino porqué ilustran como las profesiones actuales se están transformando fundamentadas en las nuevas tecnologías, los algoritmos y el dato.

Sin duda alguna la sociedad se enfrenta actualmente a un gran reto. Mucho trabajos en múltiples sectores van a verse afectados por la tecnología. Desde trabajos como conductor de un vehículo hasta un abogado. El efecto será diferente pero, en todos los casos, de profundo calado.

Pensemos un momento en el efecto de la automatización de la conducción. No solo impactará sobre los conductores sino que puede impactar en toda su cadena de valor. Estamos hablando de gasolineras (¿si un algoritmo conduce no será capaz de reducir el consumo de gasolina?), seguros (¿no habrán menos accidentes?), talleres (¿no se reducirá el desgaste?),…

En el sector de abogacía, ya no es necesario pasar días revisando el departamento de documentación para encontrar todos los casos similares a los que se está tratando, los temas relevantes tratados en caso es posible detectarlos mediante técnicas de text mining y incluso para conocer la tendencia la predisposición de un juez respecto un caso es posible usar la información de casos previos.

Aún estamos entiendo que va a suponer en la redefinición de dichos sectores. Y en todos ellos, tanto una palanca como una solución a esta situación son los datos y los algoritmos.

En la época de las fake news, en las que medios de comunicación están supeditados a las fuerzas de pocos y se usan campañas mediante facebook y otros medios sociales para modificar la opinión de la sociedad, necesitamos que las personas entiendan lo que sucede pero también, y esto es sumamente importante, profesionales que trabajen por las trasparencia mediante el dato y los algoritmos.

¿Cómo serán las profesiones del futuro aumentadas por los algoritmos y los datos? Aún lo estamos descubriendo (y MITSloan ya intenta dar una visión), pero espero que sean tan interesantes como el periodismo de datos y la abogacía de datos, a la que frecuentemente nos referimos como legal analytics.

Posted in Big Data, Business Analytics, Business Intelligence, Data, Data Driven, Data Science | Tagged , , , , | Leave a comment

Monetizar el dato y licencias de uso

Hace unos años hablar de explotar el dato se centraba principalmente en la toma de decisiones. En permitir, habilitar y mejorar la toma de decisiones. Más rápida y más eficiente. Ya sabemos que las organizaciones hacen uso de la inteligencia de negocio para dicho cometido.

Actualmente la explotación del dato presenta múltiples opciones. Entre ellas la monetización del dato. Es decir, la generación de nuevos ingresos fundamentados en los datos de la organización.

Es necesario remarcar que frecuentemente es más fácil desarrollar una estrategia de reducción de costes que una de monetización, y en el mejor de los casos encadenarlas. Algunos de los beneficios de la primera (como liberar presupuesto) pueden ser aplicados en la segunda.

¿Qué opciones disponemos?

Existen múltiples opciones:

  • Crear productos fundamentados en datos como ya he discutido anteriormente aquí. En estos productos, el dato (y los algoritmos) forman parte fundamental del mismo. Por ejemplo, en esta categoría tenemos nest.
  • Codificar servicios digitalmente y aumentar su propuesta de valor mediante datos y algoritmos. Por ejemplo, el servicio de fotografías de google photos que propone mejoras de las fotografías que alojamos en su servicio.
  • Otra opción igualmente interesante posible es empaquetar datos de forma adecuada para su venta a terceros.

Cada uno de estos casos tiene su dificultad.

  • En el primero de ellos, por ejemplo, las organizaciones se enfrentan al reto de combinar la analítica con un objeto físico que magnifique y potencie las características del producto de forma natural.
  • En el segundo, un aspecto similar ocurre en el que la analítica debe estar supeditada a la función del servicio (y de hecho, los mejores servicios son aquellos donde el valor se percibe pero su integración es perfecta).
  • En el tercero, múltiples retos emergen sobretodo del hecho de empaquetar el dato de forma adecuada. De forma adecuada tiene múltiples significados, entre ellos: (1) respetando la regulación que aplica al dato por su naturaleza, industria y localización geográfica, (2) en el formato adecuado para su consumo, (3) bajo una licencia de uso adecuada y (4) securizado y anonimizado (mediante técnicas de data privacy).

¿Cómo licenciamos el uso?

El comercio del dato es un tema muy sensible. Lo discutimos en muchas de nuestras asignatura como Customer Analytics.

Los motivos para compartir y/o comercializar datos con terceros pueden ser múltiples. A parte de soluciones técnicas, es necesario acuerdos coherentes con las regulaciones y demás puntos relevantes. Es interesante que tenemos, desde hace bien poco, a nuestra disposición un nuevo tipo de acuerdo: Community Data License Agreement (CDLA).

Esta iniciativa, auspiciada por la Linux Fundation, busca trasladar el marco de acuerdos (y licencias) que existen en el ámbito de open source al ámbito del dato en dos modalidades inicialmente: sharing y permissive.

Sharing bebe de las premisas del copyleft. y es su equivalente en el mundo del dato. Mientras que permissive hace referencia al copyfree.

Estas modalidades no necesariamente encajaran en todos los proyectos en los que debamos trabajar con datos de terceros y compartirlos, pero suponen una más que bienvenida opción para aquellas empresas interesadas que pueden apalancarse sobre ellas en algunos de sus proyectos.

¿Ya estáis usando el licenciamiento adecuado para vuestras iniciativas de datos?

Posted in Big Data, Data Monetization | Tagged , | Leave a comment

Data Literacy

De un tiempo a esta parte hemos empezado a hablar del concepto de data literacy. Una definición que podemos usar para este término es la capacidad de transformar los datos en información relevante y hacer un uso acorde de dicha información.

¿Por qué se está volviendo este concepto importante? Porqué a medida que las organizaciones quieren tomar mejores decisiones se intentan fundamentar en datos y evidencias. Y ello se traslada a cada una de las personas que participan en la organización y no sólo a los expertos en Business Intelligence, Business Analytics, Big Data o Data Science.

Esto viene a colación puesto que hace unos días me preguntaba una periodista si todo el mundo debería aprender las tecnologías de Big Data. Como os podéis imaginar es una pregunta interesante, pero cuya respuesta no es quizá la que se espera todo el mundo.

No es necesario que todo el mundo se convierta en un experto en Big Data o en un científico del dato y, sin embargo, si es completamente imprescindible adquirir habilidades en el ámbito de data literacy.

¿Qué habilidades componen este ámbito? Son múltiples y tan solo listaremos algunas de ellas:

  • Conocer cuando es apropiado usar un dato para un propósito específico. Por ejemplo, en la segmentación de clientes.
  • Saber interpretar visualizaciones de datos, como gráficos y tablas. Por ejemplo, comprender qué significa un gráfico de dispersión.
  • Aplicar el pensamiento crítico a la información derivada del análisis del dato. Por ejemplo, para evaluar cuando una información que hemos recibido tiene sentido o no.
  • Entender qué herramientas y métodos analíticos existen, y cuando, cómo y donde se pueden aplicar. Por ejemplo, conocer para qué sirve el análisis de afinidades.
  • Reconocer cuando los datos han sido manipulados o mal interpretados. Por ejemplo, cuando se comunican los resultados de una empresa.
  • Saber comunicar información respecto datos a personas sin las capacidades adecuadas. Lo que frecuentemente se conoce como data storytelling.

En estos puntos nos encontramos conocimientos de múltiples ámbitos: matemáticas, estadística, programación, comunicación, visualización, pensamiento crítico y analítico,…  a diferentes niveles de profundidad.

Si queremos organizaciones mejores, y ya puestos a pedir, una sociedad mucho mejor, no se trata tan solo de saber usar herramientas que permitan capturar, procesar, almacenar, analizar y visualizar datos. Necesitamos personas con las capacidades anteriores, que puedan analizar situaciones desde una perspectiva crítica y sean participes de una cultura analítica.

En definitiva, no se trata de desplegar un proyecto de datos sino realmente transformarse en una organización orientada al dato en todos sus niveles y para ello es necesario implicar a todo el mundo. ¿Estamos adquiriendo estas competencias? ¿Está nuestra organización ayudando a desarrollar estas competencias?

Como punto final, os recomendamos ver las siguientes charlas:

Fuente: The age of data literacy, Uldis Leiterts, TEDxRiga

Fuente: Making data mean more through storytelling, Ben Wellington, TEDxBroadway

Posted in Big Data, Business Analytics, Business Intelligence, Data, Data Driven, Data Literacy, Data Science | Tagged , , , , , , | Leave a comment

Big Data Talent Awards 2017

A los que nos dedicamos desde hace mucho tiempo a la educación nada nos produce mayor satisfacción que los éxitos de nuestros alumnos tanto dentro del programa (en su progresión en el aprendizaje, en sus trabajos finales dónde plasman los conocimientos adquiridos,…) así como en sus carreras profesionales en las que aplican y proyectan sus conocimientos.

Nos gusta reconocer el trabajo de nuestros estudiantes en la entrega de su título una celebración cargada de emociones por todo el esfuerzo invertido. Y también a nivel personal, hablando con ellos, felicitándoles por su trabajo. Pero esto es un reconocimiento interno.

Esta reflexión viene a colación de la celebración del Big Data Talent Awards en Barcelona organizado por BigDataCOE y que está patrocinado Oracle.

En la edición de 2017 hemos alentado a algunos de nuestros estudiantes a presentarse con sus trabajos finales. Hemos considerado que han hecho trabajos excepcionales y de gran calibre. Y creíamos que no solo nosotros debemos mostrar dicho reconocimiento.

Es un placer y honor para comentar que uno de nuestros alumnos, Albert Vergés López, ha ganado el primer premio en la categoría “proyecto de finalización de master o posgrado” con su trabajo “Identificación de la brecha entre oferta y demanda del mercado laboral“.

¡Desde todo el profesorado te damos la enhorabuena por este reconocimiento! También me gustaría felicitar a tu director de proyecto, Diego Miranda Saavedra, por su buen hacer en la dirección del proyecto y por extensión a los granitos de arena que el resto de profesorado te ha proporcionado en tu itinerario.

Este reconocimiento público del trabajo de nuestros estudiantes nos motiva todavía más a mejorar nuestros programas. ¡Ahora a continuar trabajando!

Posted in Big Data, BigDataAdwards | Tagged , | Leave a comment