Big Talent Awards Barcelona: ¿Puedo comprarme un piso?

A lo largo de nuestra vida tomamos múltiples decisiones en la que decidimos comprar un producto (o un servicio). Algunas de ellas son de mínimo riesgo (como, por ejemplo, dónde nos tomamos un café y cuánto pagamos por ello), otras tienen un calado de mayor importancia y a largo plazo (como, ejemplo, en qué programa me matriculo y cómo monetizo dichos conocimientos). Otras son sumamente relevantes puesto que afectan nuestras vidas e incluso las de nuestro entorno.

Sin duda alguna una de las decisiones más importantes es: ¿Puedo comprarme un piso? Una pregunta cada vez más complicada a razón de la escalada de precios y a la nueva y restrictiva Ley de Crédito Inmobiliario 5/2019

Y si fuera posible empezar a responder a esta pregunta. Imagínate: poder predecir el acceso a la vivienda en propiedad en función de los estudios, situación laboral, mercado inmobiliario y lugar de residencia. Valdría la pena intentar encontrar una respuesta. Como os podéis imaginar es una pregunta que puede dar a un estudio de investigación.

Este es el trabajo final de máster (TFM) de Óscar Olcina Salinas dirigido por Diego Miranda Saavedra, dentro del Máster de Inteligencia de Negocio y Big Data. Un trabajo excelente que aborda esta pregunta y que podéis consultar en Tableau Public (os recomiendo acceder):

http://bit.ly/OscarOlcina

No solo hemos considerado los miembros del tribunal del máster que es un trabajo excelente. Este trabajo ha sido premiado con el primer premio en la Categoría I (proyecto final de máster o posgrado) por el trabajo “Predicción del acceso a la vivienda en propiedad en función de los estudios, situación laboral, mercado inmobiliario y lugar de residencia” en la 5ª edición dels Big Data Talent Awards 2019.

El premio se otorgará el próximo 17 d’octubre de 2019 en el Auditorio AXA de Barcelona.

El cuerpo docente felicita tanto a Óscar por haber realizado este trabajo, por ser reconocido de forma pública y por su trayectoria durante el programa, y también a su director, Diego.

Sin duda, noticias como estas, hacen que me sienta profundamente orgulloso de mis estudiantes.

Posted in Big Data, BigDataAdwards | Tagged , , , , | Leave a comment

Viajes de Datos (I): Manila

Verano para muchos académicos y profesionales no significa vacaciones, sino simplemente otro periodo diferente. Este año he aprovechado este periodo para descubrir la situación del mercado analítico en Manila, Australia y Nueva Zelanda, así como impartir clases en AGSM en Sydney.

Como os podéis imaginar, cada país se encuentra en un nivel de madurez diferente y tienen sus campeones locales (que podemos considerar mas avanzados que el resto tanto a nivel de adopción de tecnología, de gobierno del dato así como del tema organizativo). Poder hablar con estas empresas me permite descubrir barreras, así como buenas prácticas.

Mis viajes dan para varias reflexiones. Así que empezaremos por Manila (aprovechado mi largo viaje de vuelta a Europa).

En Manila tuve la oportunidad de hablar en la conferencia Ignite. Por si no lo conocéis: Este evento es uno de los principales en el ámbito de la emprendeduría en este país. Ya va por su tercera edición y en esta han logrado llegar a los 2000 asistentes (en la anterior tuvieron 1000 asistentes). Una cifra muy interesante. Aunque bastante mas interesante es lo que sucede durante los dos días que dura: ponencias plenarias, en paralelo, conversaciones con inversores y expertos, competición de startups,…

Me invitaron en calidad de ponente de plenaria y experto. El evento empezó muy interesante. Jeremy Rolleston, deportista olímpico en diversas disciplinas, explicaba su transición a emprendedor en el ámbito de la salud y ponía en relieve la época en la que vivimos: aprendizaje continuo y reconversión de nuestra trabajo multiples veces a lo largo de nuestra carrera profesional. A parte de dejar en manifiesto que el gran reto que tenemos es trasladar hábitos de salud saludables al consumidor. Me quedo con la idea que de cada día debemos intentar tener una mejor version de nosotros mismos. Ojalá este sentimiento se extendiera a otros ámbitos sociales que se encuentran en crisis en multiples países (tanto en Europa como más allá). Aunque el tema de políticas basadas en evidencias lo dejamos para otro día. 

Cuando hablo en eventos de emprendedores siempre tengo un reto. Por un lado, vengo de familia de emprendedores, y soy emprendedor. Llevo años viviendo en el lado oscuro. Por otro lado, me centro en el uso eficiente del dato. Nunca hablo de mi experiencia como emprendedor. Siempre es el dato. Y este tema, aunque relevante y fundamental para convertirse en una empresa competitiva actualmente, no siempre es el motivo principal de interés de los asistentes de este tipo de eventos. Aunque ya sabéis lo que siempre comento:

A company without algorithms and data can’t keep up with one that uses them

Volviendo al tema de la charla. Esto (el interés de los asistentes) me pone en una tesitura complicada. De qué hablo. Tras pensarlo mucho, el tema a tratar fue la innovación mediante los datos. En el (trillado) tema de la transformación digital, las empresas tienen dos opciones: la optimización (lo mismo de siempre, pero mejorado) o la innovación (introducir disrupciones en sus modelos de negocio o las fuentes de ingresos) –  quizá hemos tenido siempre la misma dualidad, aunque sera que no nos acordábamos y ahora alguien tiene de recordarnos que es así-. Así que puestos a escoger hablemos de innovación.

Cuando hablamos de empresas consolidadas, se trata de abrir nuevos mercados (ya sea complementarios o nuevos). Solo tenemos de fijarnos que están haciendo BBVA o Telefonica. Cuando hablamos de startups tenemos de poner otros ejemplos. Uno de los que suelo hablar es Kreditech, que usa conjuntos de datos dinámicos para crear perfiles más precisos para micro-créditos. Y con eso ha podido expandirse a un mercado complementario no explotado de forma eficiente.

Así que el idea de partida es si queremos una startup innovadora, los datos y los algoritmos son una de las opciones o mecanismos a tener en cuenta.

Durante la presentación destaque diversos puntos. (1) Desde sus inicios, una startup debe empezar a definir una estrategia de datos, (2) ser una empresa orientada al dato no es sencillo y requiere tiempo (3) muchas de las startups que se autodenominan ML no lo son en sus primeros años de existencia

Lo mejor de la charla, fue la posibilidad (tras ella) de hablar con diversos emprendedores sobre su situación, que hacen y darles consejos para siguientes pasos. Hay muchísimo interés por la analítica. Aunque hay bastantes handicaps a superar (como gobierno de datos) que no nos extrañe que vayan avanzando a saltos si se crea el ecosistema adecuado.

Y entre esos pasos para dar los saltos aumentar su nivel de data literacy (como ya hemos explicado diversas veces).

Pues eso, tras la ‘vacaciones’, volvemos a la carga.

Posted in Data Literacy, Evento | Tagged , , | Leave a comment

Análisis crítico en la definición de un proyecto machine learning

La segunda ponencia que tuvo lugar en el UOC Data Day 2019 que se celebró en el Espacio Movistar, en Barcelona, habló de los procesos de un proyecto machine learning. El ponente fue Jordi Font quien explicó su proyecto final de máster.

La primera parte de la conferencia se realizó en castellano. La segunda parte, en catalán.

Jordi, al inicio de la presentación, comentó que había cursado el Máster en Ciencia de Datos de la UOC, explicando su experiencia personal, la carga académica y sus logros académicos.

Etapas de un proyecto de machine learning

Para realizar un proyecto machine learning, Jordi nos comenta 5 etapas principales:

  • Definición de objetivos
  • Captura de datos
  • Procesamiento
  • Construcción de un modelo
  • Análisis de resultados
machine learning proceso etapas

Jordi nos comenta su trabajo final de máster en relación al esquema anteriormente comentado, siguiendo los procesos de machine learning expuestos. El tema es la predicción del agua en los embalses de Sau y la Baells.

El objetivo del trabajo final de máster de Jordi consistía en predecir, a 15 días vista, cuál sería el nivel del agua almacenado en ambos embalses.

En la fase de captura de datos, como ejemplo práctico, Jordi nos comenta las variables que se encontró. Por un lado, las fijas, es decir, las univariantes como el volumen del agua almacenado en sí. Otras variantes, las más variables, consistían en factores como la la meteorología en general.

Una vez se recopilan los datos, Jordi procedió a la organización y gestión de los mismos.

machine learning big data

Para la construcción del modelo, hay que centrarse mucho en los objetivos y ceñirse a ellos con el objetivo de depurar los datos y no perder tiempo necesario.

proyecto machine learning

Para la evaluación de resultados, a la hora de predecir el futuro del almacenaje del agua en los pantanos, a mayor predicción de días, más probabilidad de error. Esto se muestra en los gráficos expuestos en la conferencia de Jordi.

machine learning big data

Con diferentes modelos de predicción también se obtienen diferentes resultados.

machine learning big data

La conferencia finalizó con un turno de dudas y preguntas.

Jordi cursó el Máster en Ciencia de Datos de la UOC. Diez días después de acabar el máster, Jordi encontró trabajo relacionado con data science.

Posted in Big Data, Data, Data Analyst, Data Science, Evento, Machine learning, UOC, UOC D^2 | 1 Comment

No es fácil, para nada

No lo decimos nosotros (aunque lo pensamos), sino IDC: For 1 in 4 companies, half of all AI projects fail. Es decir, transformarse en una empresa AI first (otro de estos términos de de moda), no es fácil, para nada.

Estos resultados no son sorprendentes (quizá un poco optimistas en general). Introducir estas tecnologías en el seno de una organización requiere nuevas competencias (que deben generar ventajas competitivas) a partir de recursos específicos (en el sentido de Michael Porter) que no tienen por qué estar presentes en la organización. Y si no están presentes, ¿qué hacemos?

No se trata tan solo de implementar un sistema de información, o de ejecutar un algoritmo sino de construir frecuentemente nuevos sistemas ad-hoc (con todo lo que supone) y incluye nuevos enfoques como DataOps (sí, hoy va de palabras que llenan estadios y presentaciones) o de confiar en AI as a Service.

También deberíamos preguntarnos que significa estar preparados (si, eso que llamamos AI Readiness y que podemos encontrar ya algunos artículos y cada integrador tiene su propio enfoque).

Duro trabajo para el CDO (Chief Data Officer) que ya no solo debe convertir la empresa en orientada al dato (data-driven) sino AI first, venciendo las múltiples barreras, convenciendo a pares, introduciendo modelos basados en datos (que pueden incluir sus propios sesgos), luchando con dilemas éticos, y, además, desde posiciones complicadas para ajustar el modelo organizacional. Tarea de titanes, sin duda alguna.

Posted in Artificial Intelligence, Chief Data Officer, Data Driven | Tagged | Leave a comment

Competencias de análisis

Ya hemos hablado anteriormente que creemos que todos los profesionales necesitan competencias para el análisis de datos (en articular, hace casi dos años lo comentábamos! http://dataanalysis.blogs.uoc.edu/2017/10/30/data-literacy/). Actualmente el tema se ha vuelto aún más relevante como bien indica Gartner que apremia a las organizaciones a desarrollar sus programas de data literacy, sino para el 2020 el 50% de su fuerza de trabajo se encontrará descolocada respecto la forma de operar en las organizaciones orientadas al dato (como apuntan en este interesante artículo: https://www.gartner.com/smarterwithgartner/a-data-and-analytics-leaders-guide-to-data-literacy/).

Esta idea no es nueva, de hecho, empresas como Airbnb han creado sus propias iniciativas internas (Airbnb – Data University) y no son las únicas en crear iniciativas internas para codificar y compartir conocimiento transversal (en este ámbito y otros).

Sin duda alguna, no todo el mundo debe convertirse en un científico del dato, un experto en Big Data o analista de datos, pero en esta transformación del puesto de trabajo todos los profesionales deben ser capaces de tomar decisiones fundamentadas en evidencias y sobretodo, entender como se trabaja con el dato. Y lo que antaño eran competencias de nicho, ahora son competencias transversales y que deben ser adquiridas urgentemente.

Es por ello que desde la UOC hemos lanzado una nueva especialización que hemos llamado Competencias de Analisis que da respuesta a esta necesidad. Repetimos: no solo es necesario formar científicos del dato o expertos en big data o análisis, es necesario formar a todos los profesionales.

Esta especialización tiene un doble objetivo:

  • Por un lado, proporcionar la posibilidad a todos los profesionales adquirir competencias fundamentales para el análisis de datos (como trabajar con SQL, R, o visualización de datos mediante programas especializados).
  • Por otro lado, permitir a los perfiles que quieran desarrollar una carrera como consultores en este ámbito pero que no tengan conocimientos o experiencia anterior poder adquirir estas competencias.

Sin duda alguna es un paso importante, y como antaño queremos acompañaros. ¡Os esperamos!

Posted in Data Driven, Data Literacy, UOC | Tagged , , | Leave a comment

Las 5 profesiones más buscadas en análisis y ciencia de datos

Es indudable que la ciencia de datos o el data science es un universo que hoy en día está en completo auge; las empresas necesitan incorporar en sus plantillas diferentes perfiles relacionados con el universo de lo datos. Pero, ¿cuáles son los perfiles más demandados? ¿A qué se dedica cada uno de ello? Salimos de dudas con las siguientes infografías.

El manager o consultor

Tiene una actitud directiva y de gestión. Es el responsable de un proyecto, de su gestión, equipo y resultados finales. Además, hacer de intermediario entre los diferentes equipos, incluso con el cliente, es una de sus tareas principales. Conoce el entorno big data, su tecnología y programación, pero no la utiliza.

manager consultor data science

El analista de datos o data analyst

Se encarga de recopilar todo de tipo de datos, sobretodo los ya existentes para realizar una consultoría previa a un proyecto. Con los datos recopilados, realiza informes para definir un proyecto o para corroborar que lo que se está haciendo va por buen camino.

El analista de datos o data analyst

El científico de datos o data scientist

Se encuentra a un nivel superior del analista de datos o data analyst. Tiene un conocimiento más avanzado del ámbito y de las tecnologías, de manera que puede crear algoritmos para acotar, definir o perfeccionar toda la recopilación de datos, con el objetivo de mejorar el proyecto. Desarrolla sus propios modelos de programación.

El científico de datos o data scientist

El arquitecto o ingeniero de datos

Su función es velar por el buen funcionamiento de las plataformas en donde se hallan los datos. Por ello, su formación en programación y hardware es muy precisa. Velar por la seguridad también se encuentra dentro de sus funciones.

arquitecto ingeniero datos data science

El arquitecto o ingeniero de Big Data

Se encarga de big data. Se diferencia del analista de datos o data analyst porque los datos con los que trabaja son mucho mayores. Cuenta con una formación en programación muy detallada y amplia con el objetivo de trabajar un volumen de datos elevado.

El arquitecto o ingeniero de Big Data

Para hacer frente a la demanda de las empresas en la búsqueda de perfiles de ciencia de datos o data science, la UOC dispone de un grado en ciencia de datos aplicada y de un máster universitario en ciencia de datos.

Posted in Big Data, BigDataAdwards, Data, Data Analyst, data analytics, Data Science, Pensamiento Analítico, UOC | Tagged | 1 Comment

Ciencia de datos de para el bienestar planetario

El pasado 15 de mayo tuvo lugar el UOC Data Day, un evento gratuito organizado por los Estudios de Informática, Multimedia y Telecomunicación de la UOC con el objetivo de hablar sobre ciencia de datos y todo lo que le rodea.

La primera ponente, después de la presentación del evento por la Dra. Teresa Sancho, directora de programa del Grado en Ciencia de datos de la Universidad Oberta de Catalunya, fue Ana Freire. Ana es ingeniera en informática y doctora también en ingeniería informática por la Universidad da Coruña. Actualmente, es profesora investigadora en la Universitat Pompeu Fabra de Barcelona. En esta universidad, además de dar clase, forma parte de un proyecto de investigación con el objetivo de aplicar la inteligencia artificial (IA) en las necesidades de la sociedad. En su tiempo libre se dedica a lanzar iniciativas para promover los estudios TIC entre las jóvenes.

Ana tituló su conferencia Ciencia para el bienestar planetario para explicar cómo se puede llegar a utilizar los datos con el objetivo de lograr un bienestar planetario. Esta idea la ejemplarizó con diferentes  proyectos relacionados con la salud y el medio ambiente.

Salud mental

El primer caso práctico tuvo que ver con la salud mental; al año se producen 800.000 muertes por suicidio a nivel mundial. Esto significa que cada 40 segundos, ocurre un suicidio. En España, en 2017, la muerte por suicidio superó el doble a la muerte por accidentes de tráfico.

Ana y su equipo, como ingenieros, se preguntaron si podían hacer algo al respecto. La respuesta es que sí; muchas veces, las redes sociales son una plataforma en donde la gente con problemas mentales comunica sus sentimientos y emociones, aunque sea de manera sutil. Ejemplo de ello son los siguientes dos posts, escritos por dos personas antes de cometer un suicidio.

machine learning users twitter comments

Twitter es una red social en el que se suelen expresar las personas susceptibles de cometer un suicidio.

Ana y su equipo lanzaron el proyecto STOP Suicide prevenTion in sOcial Platforms con el objetivo de crear un sistema que en tiempo real monitorizara  las redes sociales con el objetivo de detectar usuarios con alto riesgo de suicidio. Además del suicidio, se quiso identificar también otros trastornos mentales y la depresión.

detecting users suicidal ideation data science ciencia de datos
Proceso utilizado para el desarroyo del proyecto.

Una parte del proyecto pretende, tanto en Twitter como en Reddit, identificar a personas con tendencias suicidas. Para ello, se descargaron unas listas con palabras y frases identificadas por psicólogos  como expresiones utilizadas por personas con estas conductas. Se realizó un filtrado para realizar un etiquetado manual para que los psicólogos identifiquen, uno a uno, el grado de tendencia suicida. Se tiene ene cuenta también la periodicidad en que se publican tuits, los favoritos o retuits que tienen las publicaciones para entender si tiene mucho apoyo o seguidores en las redes sociales. También la hora de las conexiones, ya que las personas con problemas mentales no tienen el sueño tan profundo y es posible que se conecten a horas no habituales.

Otro de estos proyectos se basa en la red social Reddit. El objetivo era, mediante el machine learning, identificar en esta red, gracias a los comentarios, a personas susceptibles a padecer trastornos mentales o depresión. El funcionamiento consiste en ir leyendo cada uno de los mensajes en orden temporal y secuencial para intentar predecir, lo antes posible, diferentes conductas. Interesa más identificar un usuario con posibles trastornos mentales que uno que ya los padece. El objetivo de prevenir. Se trata de trabajar con medidas de early risk.

data science ciencia de datos early risk detection users depression anorexia
Formulación utilizada para la detección de personas con Anorexia o depresión en Reddit.

Otro proyecto en los que se encuentra Ana Freire es un sistema recomendador para personas que padecen Anorexia, utilizando datos en Twitter. Este sistema se basa en la idea de que las personas con Anorexia se proyectan en personas que ya han superado la enfermedad, teniéndolas como referente. El proyecto identifica a personas que tengan la enfermedad y personas que ya hayan pasado por ella mediante las palabras utilizadas, lo que dicen o cómo lo dicen. Obviamente, el proyecto integra a psicólogos que aconseja al equipo de Ana qué palabras utilizar para identificar estas conductas en los comentarios de los usuarios.

A los usuarios identificados con anorexia se les informa de otros usuarios que ya han superado la enfermedad. El objetivo es ayudarles mostrándoles un referente que haya pasado por lo mismo. Además, este contacto se realiza basándose en intereses en común para que la recomendación no sea tan intrusiva.

Enfermedades neurológicas

El objetivo de este nuevo estudio es predecir cuáles son los tests clínicos más determinantes para detectar la esclerosis múltiple. La motivación del proyecto es que 2,3 millones de personas en el mundo sufren esclerosis múltiple cuyo origen es aún desconocido.

Para el estudio, se utiliza un número determinado de usuarios y se extraen 73 características de todos ellos mediante diferentes tests. Con ello, que quiere identificar variables en común.

dataset healthy controls data science ciencia de datos

Es un proyecto que aún está en proceso, por lo que aún no hay resultados. Pero lo que sí que puede comentar Ana son los retos o challenges a los que están haciendo frente.

  • Data set pequeño. Hay pocos ejemplos y esto puede llegar a ser un problema con la inteligencia artificial, por lo que la precisión del sistema es evidente.
  • Datos erróneos. Al transcribirlos se puede colocar la coma donde no era, por ejemplo. Hablamos de errores humanos. Otros datos eran reales pero para el equipo de Ana eran outler.
  • Datos perdidos. Había muchos pacientes que no tenían todos los tests clínicos realizados, por lo que había muchos datos en falta. En este caso, a veces se tira de estadísticas como la media o la moda, aunque no es aconsejable.
  • No es un conjunto balanceado. Hay más pacientes con esclerosis múltiples que sanos, hubo que utilizar técnicas de compensación dando más peso a la clase minoritaria.
  • Variables categóricas. Siempre que se trata con datos médicos que no sean numéricos, hay que transformarlos para que puedan ser entendidos por los programas de inteligencia artificial.
retos challenges

Los retos o challenges del proyecto

Sostenibilidad

Es un trabajo que tuvo que ver con la tesis doctoral de Ana. Los datos utilizados fueron difíciles de conseguir, ya que se obtenían mediante los motores de búsqueda. Para ello, Ana tuvo que contratar con Yahoo y Microsoft. Fue una línea de investigación complicada ya que los datos eran difíciles de obtener.

En 2015, Google reportó que había consumido en electricidad lo mismo que la ciudad de San Francisco. Las TIC suponen entre un 8% y un 10% de la energía consumida en Europa, con un 4% de las emisiones de carbono.

Los documentos en Google aumentan año tras año. Pero el buscador tarda lo mismo, prácticamente, en buscar la información; a lo largo del tiempo, ha aumentado muchísimo la cantidad de documentos alojados en Google pero apenas se ha modificado el tiempo en encontrarlos, cuando debería haber sido al revés: a mayor cantidad de documentos, mayor será el tiempo en encontrarlos.

latency documents search Google
Cantidad de documentos almacenados de Google a lo largo de los años y la latencia de los mismos

La latencia es el tiempo total desde que el usuario teclea lo que quiere buscar hasta que obtiene los resultados. Es fundamental para que un usuario se vuelva adicto a un motor de búsqueda, según diversos estudios; un usuario, cuanto menos tarde en encontrar una información en un servidor, más fiel le será. Esta información la conoce Google y la tiene en cuenta en su funcionamiento; Google facilita a una búsqueda muchos servidores para que el tiempo de búsqueda sea lo menor posible. De ahí tanto gasto energético, para la eficiencia a la hora de buscar una información.

¿Cómo reducir el consumo de electricidad manteniendo el tiempo de latencia?

La gráfica de a continuación representa las búsquedas de las personas a lo largo del día. Para que las consultas sean respondidas rápidamente, Google tiene muchos servidores encendidos. Ana, mediante diferentes fórmulas matemáticas y la ciencia de datos, pretendió que los servidores se vayan encendiendo o apagando en función de la cantidad de las búsquedas. La idea es no tener máquinas o servidores encendidas a la espera de búsquedas y que puedan dedicarse a otros trabajos.

power latency tradeoff
La curva de la gráfica muestra la cantidad de búsquedas en los buscadores a lo largo del día.

El modelo que buscaba Ana quería balancear el consumo y la latencia. Para ello, se utilizaron datos históricos y datos de predicción en tiempo real.

El proyecto consiguió, en el mejor de los casos, reducir el consumo de energía en un 68% dañando la latencia únicamente en 8 milisegundos.

El último de los proyectos tiene que ver con las búsquedas en Yahoo; cuando las búsquedas demoran más de lo habitual, los usuarios tienden a abrir otra ventana para buscar otra información o, directamente, no hacen clics en las búsquedas obtenidas. De esta manera, el proyecto quería predecir este comportamiento en el usuario; prediciendo que va a abandonar una búsqueda, las búsquedas obtenidas podían ser parciales o basadas en cachés para priorizar el ahorro de energía.

El dataset era muy elevado, basado en treinta millones de consultas. Se extrajeron las características que se observan en la imagen a continuación, relacionadas con el usuario, la hora y el día, etc.

dataset latency Yahoo data science ciencia de datos
Dataset del proyecto para entender el comportamiento del usuario en el buscador Yahoo.

Con este método de clasificación, se aplicó una simulación que a cada unos milésimos de segundos, se podía predecir si el usuario iba a continuar la búsqueda o la iba a abandonar. Si el resultado era que iba a clicar, el procedimiento se repetía, es decir, constantemente se iba prediciendo si el usuario iba a continuar la búsqueda o no.

reducing latency query and power at query time
Proceso en el que se predice el comportamiento del usuario cuando busca una información y la latencia es
elevada .

El ahorro obtendio fue de un 30%.

Después de explicar estos proyectos de ciencia de datos, se abrió un turno de preguntas entre el público.

Posted in Artificial Intelligence, Big Data, Data, Data Analyst, Data Engineer, Data Science, Evento, Machine learning, Uncategorized, UOC, UOC D^2 | Tagged , , , , , | Leave a comment

UOC D^2 2019 – Barcelona

De nuevo regresa UOC D^2 que como ya sabéis es nuestro evento gratuito enfocado a todas aquellas personas que tengan interés en las nuevas tecnologías relacionadas con los datos. Se llevaran a cabo charlas con académicos y profesionales apasionados por compartir conocimientos en este ámbito.

Ya llevamos dos años haciendo dos ediciones (Barcelona y Madrid) con amplio éxito de convocatoria. Podéis revisar las sesiones aquí.

Empezamos con la edición en Barcelona el próximo 15 de Mayo, para la que creemos que hemos preparado un programa muy interesante.

16:00 – Bienvenida y presentación de la jornada

16:15 – Ciencia de para el bienestar planetario , por Ana Freire (lecturer en UPF)

16:45 – CityOS en el ayuntamiento de Barcelona,  por Yolanda Gordo (responsable de proyectos TIC aplicados en el sector público y en las Smart Cities)

17:15 – Networking & Coffee

17:45 – Análisis Crítico en la definición de las etapas de un proyecto de Machine Learning, por Jordi Font (Data Scientist en Launchmetrics)

18:15 – Ciencia de Datos aplicada a personas = People Analytics, por Marta Gascón (de PERSONPKI)

18:45 – Q&A y clausura

Más información e inscripciones: http://symposium.uoc.edu/29906/programme/uoc-data-day-2019-barcelona.htmlh

¡Os esperamos en el UOC Data Day (D^2)!

Posted in Data Science, UOC, UOC D^2 | Tagged , , | Leave a comment

La UOC facilita un nuevo espacio de recursos en ciencia de datos (data science)

El interés de la sociedad por el data science es exponencial. Los medios de comunicación no iban a ser una excepción; el Mundo y la Vanguardia entrevistaron recientemente a Josep Curto, especialista en inteligencia artificial (IA), científico de datos y profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC.

El mundo de la ciencia de datos ha venido para quedarse e implementarse en nuestras vidas, en la sociedad. Pese que aún es bastante desconocido para muchos, el data science no debería generar ningún rechazo en las personas; según Josep Curto en la Vanguardia, no debemos tener miedo a la inteligencia artificial (AI), sino a los usos que podamos hacer con ella.

espacio recursos data science

Debido al auge del interés por la ciencia de datos, la UOC se hace eco de las demandas de la sociedad y ya dispone de un Grado en Ciencia de Datos Aplicada (Applied Data Science) y de un Máster en Ciencia de Datos (Data science). Además, se ha puesto en marcha un espacio de recursos en ciencia de datos para todas aquellas personas que quieras saber más acerca de esta disciplina. Es una web pública, abierta a todos y todas que se irá completando y mejorando con recursos de interés para curiosos, científicos o analistas de datos.

Posted in Uncategorized | Leave a comment

¿Cómo ha ido la quinta edición del MOOC de Business Intelligence y Big Data?

Como ya comentamos hace unos meses, hemos realizado la quinta edición del MOOC de Business Intelligence y Big Data en la plataforma MiriadaX.

Como hicimos con la primera, segunda, tercera y cuarta edición, es el momento de las reflexiones aprovechando que hemos terminado el pasado lunes.

Como en anteriores ediciones hemos compartido, con los estudiantes de esta quinta edición, siete intensas semanas (5+2) en hemos aprendido tanto de ellos (de sus intereses, qué hacen, porqué necesitan estos conocimientos y qué más quieren aprender). Se atribuye a Federico Fellini que “La experiencia es lo que se obtiene al mismo tiempo buscando otra cosa”. En nuestro caso, ya nos hemos apalancado en la experiencia generada tras tantas ediciones.

Nos maravilla tener estudiantes tan motivados que incluso han realizado este curso de forma completa incluso el taller opcional que les pone fuera de su zona de confort. Os felicitamos a todos. El cuerpo docente agradece la oportunidad de compartir conocimiento usando canales diferentes a los habituales.

En esta quinta edición hemos mantenido los contenidos de la edición anterior que reflejan parte de lo que es posible aprender en nuestros programas: el programa propio Máster de Business Intelligence y Big Data,  así como en el Máster Universitario de Data Science, y el grado de ciencia de datos aplicada.

En la siguiente tabla encontraréis los principales datos de seguimiento del curso (y también sus ediciones anteriores):

Estadística20192018201720162015
Inscripciones7.93710.8979.79931.73718.339
Inician curso4.6286.0866.36720.71715.594
Finalizan curso1.010 (22%)1.376   (22,72%) 1.487   (23,35%) 5.256   (25,37%) 2.570   (16,48%)
Inician el primer módulo4.5986.0566.31121.12415.117
Finalizan el primer módulo2.3073.0943.17710.9526.399
Inician el segundo módulo2.3883.1603.41711.5507.338
Finalizan el segundo módulo1.5702.1192.1667.7064.815
Inician el tercer módulo1.7262.2842.4808.5435.455
Finalizan el tercer módulo1.2661.6951.7506.1533.341
Inician el cuarto módulo1.4711.9502.1297.3694.263
Finalizan el cuarto módulo1.1691.5901.6425.7673.134
Inician el quinto módulo1.3111.7361.8976.7004.059
Finalizan el quinto módulo1.0551.4361.5195.3672.925
Mensajes publicados2995154959802.974

Tabla 1. Datos cuantitativos de las ediciones 2015, 2016, 2017, 2018 y 2019.

Cabe destacar que los últimos cuatro años la tasa de rendimiento se ha mantenido por encima del 22%. Podemos considerar que siguen siendo resultados positivos y nos hace mucha ilusión no sólo los resultados actuales sino la visión retrospectiva de la realización del MOOC: 11.699 estudiantes han superado nuestras cinco ediciones. ¡Nuestra más sincera felicitación! Los alumnos del MOOC forman parte de nuestra extensa familia de estudiantes y, de vez en cuando, nos sorprenden en una desvirtualización en cualquier ciudad del mundo.

Este año observamos que sigue siendo necesario explicar la base de las estrategias de datos, si bien el número de alumnos es menor. Esto por un lado es natural puesto que ya muchos de vosotros ya conocéis estos contenidos y estáis buscando mayor profundidad (como en nuestro programas). Eso sí, hemos vuelto a recibir peticiones nos piden si podemos repetir los contenidos que recordamos son los siguientes:

  • 397 minutos de vídeos (más de 6 horas y media) registrados enteramente por el cuerpo docente de la UOC,
  • 244 páginas de material adicional en PDF
  • 17 tests de evaluación de los contenidos.

Damos de nuevo las gracias por la confianza depositada por tantas personas que buscan adquirir nuevos conocimientos, información complementaria o por curiosidad.

¿Qué hemos aprendido en esta edición?

  • Interés continuo: a pesar de que el mercado se ha movido hacia la inteligencia artificial y el aprendizaje automático, es necesario conocer también el resto, puesto que las empresas aún fracasan (de forma sistemática).
  • La plataforma y el soporte: la plataforma elegida es importante y el soporte recibido más. En esta edición debemos felicitar MiriadaX por su excepcional soporte en las incidencias que hemos tenido y que han resuelto con gran celeridad.
  • Barreras: las barreras internas siguen estando presentes y aunque la tecnología ha madurado, este aspecto se erige como el primer escollo a resolver como se ha discutido en los foros.

Otra vez hemos llegado al final y, de nuevo, ya pensamos cuando será el siguiente curso, y sobretodo, qué formato y contenidos debe tener a futuro. Toca reflexión interna.

¡Cuando llegue el momento os informaremos de las nuevas fechas! Hasta pronto.

Posted in Big Data, Business Analytics, Business Intelligence, Data Science, MOOC, UOC | Tagged , , , , , | Leave a comment