¿Necesitas un centro de excelencia?

El centro de excelencia (o competencias) es un tema recurrente dentro de la inteligencia de negocio que está volviendo con fuerza con los temas de analítica. Es un tema tratado por Harvard Business Review, Gartner (tema recurrente desde 2001!) y otros.

En esencia, un centro de competencia es un equipo que es responsable de gestionar todos los aspectos de la estrategia vinculada a un aspecto, que en nuestro caso, son las estrategias del dato. Llamémoslas inteligencia de negocio, big data, data science, business analytics,…

Del ámbito del BI (que hemos conocido como BICC) ahora los centros de competencia se extienden para incluir big data y machine learning. Lo que ahora llamamos Analytical Center of Excellence (A-CoE).

¿Necesitamos uno A-CoE?

En 2011, Saafer y Zafar, en el artículo Impact of business intelligence competency center in success/ failure of B.I. applications, llegan a la conclusión que no tener un centro de competencia genera barreras al éxito en el despliegue de proyectos de inteligencia de negocio. Un año antes, SAS ya apostaba por el A-CoE.

Últimamente Davenport, también está recuperando el término remarcando los beneficios de este tipo de estructuras.

¿Necesito yo un A-CoE?

Todos los artículos anteriores analizan empresas complejas (por diferentes razones: son grupos empresariales, con múltiples divisiones, presencia en diferentes países,…). A mayor complejidad del la organización, mayor valor proporciona el CoE, coinciden los artículos, para poder orquestrar este tipo de iniciativas. Podría parecer que solo las grandes y complejas organizaciones necesitan este tipo de equipos.

Sin embargo, transformarse en una organización orientada al dato pasa por diferentes etapas, necesita de roles específicos como el CDO, de estrategias de activos para el dato, como el gobierno del dato, y dentro del gobierno de forma natural tenemos el estructuras de gestión similares a lo que sería un centro de excelencia.

Sea cual sea el camino hacia convertirse en una empresa orientada al dato, sea las técnicas analíticas o la gestión del dato, parece ser que en el camino nos encontramos con estructuras de equipo que velan por el dato en todas sus facetas.

Josep Curto es el director académico del Máster en Inteligencia de Negocio y Big Data (MiB) de la UOC. Así mismo es director de Delfos Research, empresa especializada en investigación de los mercados de Business Intelligence, Business Analytics y Big Data.

Posted in Big Data, Center of Excellence, CoE, Competency Center, Data Science | Tagged , , , , , | Leave a comment

Doctorado en Data Science: plazas y becas para el curso 2018/19

Después de años de éxito con el Máster en Inteligencia de Negocio y Big Data, y de haber iniciado este mismo curso el nuevo Máster Universitario en Ciencia de Datos, continuamos el despliegue de la oferta formativa y de investigación en el área de data science.

En este caso, os presentamos una nueva línea de “Data science” dentro del programa de doctorado NIT (Network and Information Technologies) de la UOC. El NIT es el programa de doctorado más técnico que se ofrece en la UOC, donde se pueden encontrar propuestas y líneas de investigación próximas a los grupos de investigación de la mayoría de profesores de los Estudios de Informática, Multimedia y Telecomunicación.

Concretamente, para las plazas de doctorado del año 2018, se han presentado cuatro propuestas dentro de la línea de “Data science”:

  • Privacy-preserving in Data Mining: En esta línea se investigan los métodos de preservación de la privacidad en procesos de minería de datos y aprendizaje automático (machine learning). En esencia, se trata de alterar los datos buscando un equilibrio entre dificultar la re-identificación de personas o individuos dentro de los datos anónimos y la utilidad en procesos de minería de datos de los mismos. Existen multitud de técnicas, dependiendo del tipo de datos (estructurados, semi-estructurados o con formato de grafo, o no estructurados) y del uso que se les pretenda dar. Dos de los modelos más conocidos en este campo son la k-anonimidad y la privacidad diferencial.
  • Data Mining and Community Detection in Graphs (Graph Mining): La detección de comunidades en redes sociales (y otros tipos de redes) es especialmente relevante en la actualidad, donde el auge de las redes sociales, en particular, y los datos, en general, han disparado la necesidad de clasificar entidades de todo tipo según sus patrones de similitud. En este trabajo se pretende avanzar en el estado del arte en la detección de comunidades, especialmente trabajando con grandes volúmenes de datos. Esto implica trabajar con tecnologías de big data que permitan la paralelización de las tareas y/o el uso de datos en streaming.
  • Data Mining and Deep Learning in Healthcare: En esta línea de investigación se combinan dos tendencias que han ganado mucha popularidad recientemente: se trata, por un lado, de los algoritmos de aprendizaje profundo (deep learning), básicamente redes neuronales con múltiples capas ocultas y arquitecturas complejas; y por otro lado, la adopción de la inteligencia artificial (IA) en procesos relacionados con el diagnóstico médico y la prevención de la salud. Por lo tanto, el objetivo principal de esta línea es contribuir al avance de la medicina personalizada a partir del empleo de algoritmos de minería de datos y deep learning.
  • Health Data Science: Esta investigación se propone en el contexto del eHealth Center (http://www.uoc.edu/portal/en/ehealth-center/index.html), cuyo objetivo es desarrollar procesos personalizados, predictivos, preventivos y participativos para la prevención de la salud y el bienestar. Por lo tanto, las propuestas en esta línea se enfocarán en la aplicación de técnicas de ciencia de datos sobre datos de salud, para promover la salud y el bienestar personalizados de los ciudadanos.

Podéis encontrar más información de estas líneas en la siguiente página web:

http://www.uoc.edu/portal/en/escola-doctorat/linies-recerca/linies-nit/data-science/index.html

Además de estas cuatro nuevas propuestas que acabamos de comentar, existen otras muchas líneas de investigación relacionadas con el ámbito de la ciencia de los datos, en determinados contextos, como por ejemplo en eLearning y learning analytics, donde los grupos e investigadores de la UOC tienen una amplia experiencia. El siguiente enlace muestra todas las líneas de investigación asociadas al programa de doctorado NIT:

http://www.uoc.edu/portal/en/escola-doctorat/linies-recerca/linies-nit/

Podéis encontrar más información sobre la convocatoria de acceso y admisión de los programas de doctorado para el curso 2018-2019 en el siguiente enlace:

http://studies.uoc.edu/web/estudia/en/doctoral-programmes/technologies-information-networks/presentation

Más allá de la oferta de plazas, también es relevante destacar que la UOC y el IN3 disponen de becas propias para la realización full-time de un programa de doctorado. Las bases de las becas se publicarán en la web de la Escuela de Doctorado tan pronto como estén disponibles. Las podréis consultar, junto con las convocatorias anteriores, en:

http://www.uoc.edu/portal/en/escola-doctorat/beques/beques-uoc-escola-doctorat/index.html

La fecha de finalización de la convocatoria es el 11 de febrero del 2018.

Os animamos a emprender un camino hacia la ciencia y la investigación, que seguro os aportará experiencia y riqueza personal, más allá de los conocimientos y valía profesional que un título de estas características aporta a cualquier profesional, ya sea en el mundo académico o profesional.

 

Jordi Casas-Roma es doctor en informática por la Universitat Autònoma de Barcelona (UAB, 2014), director del Máster Universitario en Ciencia de Datos (Data Science) y profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC, 2009), donde es responsable de asignaturas relacionadas con la minería de datos, machine learning y big data. Desde 2010 pertenece al grupo de investigación KISON (K-ryptography and Information Security for Open Networks).

Posted in Data Science | Tagged , , , , , | Leave a comment

Data Wars

Que el dato es un activo importante para una organización no es nada nuevo, se ha dicho en el pasado y su comparación como substituto del petróleo se va repitiendo cada cierto tiempo. Y ya sabéis: lo que se repite muchas veces o bien es cierto o bien lo convertimos en un mito que todo el mundo acepta (en linea de lo que comenta Yuval Noah Harari). De hecho, países como Arabia Saudi, lo tienen claro y han puesto en marcha un ambicioso plan para 2030 de redefinición del país como he descubierto tras hablar en el Misk Global Forum. Y mientras en algunos países aún estamos discutiendo de qué se trata esto.

Esto supone que las organizaciones debe cambiar su enfoque. No solo se trata de monetizar el dato (que es importante sin duda alguna) o de aplicar las tecnologías adecuadas de procesamiento y almacenamiento (adecuada me diréis! pudiera ser big data o no como pone en tela Álvaro) sino de definir una estrategia correcta para la gestión del dato como un activo crítico (o se convertirá en un activo tóxico como nos dice Nassim Nicholas Taleb, uno de nuestros autores favoritos). Esto último (lo tóxico estoy diciendo) es lo común de los mortales.

Y mientras las empresas que ahora se están planteando que deben analizar sus datos o que solo llevan unos años y están descubriendo que es un camino complejo, tortuoso, lleno de cantos de sirena, luces de neón, ¿qué hacen las empresas más relevantes del mundo?

Están inmersos en lo que podríamos llamar data wars (en una galaxia muy lejana). Empresas como Google, Facebook, Apple o Amazon (por destacar algunas) dan estocadas y fintas (y de hecho combinan múltiples estrategias) para atraer, conseguir y capturar el elusivo dato del consumidor: qué hacen, dónde, cuando y por qué. Y complementarlo con conjuntos de datos propios o externos que habiliten mejores estrategias hacia el consumidor.

En esto siempre he escuchado destacar a Facebook o Google por sus datos de cliente. Pero si pensamos un momento (y haciendo una simplificación un poco salvaje me dirán algunos), en Facebook o Google, los usuarios muestran sus preferencias (de formas diferentes), pero en Amazon las convierten en realidad. Podríamos preguntarnos ¿quién tiene el conjunto de datos de mayor valor?

Y esto se da en múltiples ámbitos a los que Amazon va entrando también (pensad en Amazon vs. Deliveroo). No debería ser extraño entender porqué todas estas empresas están extendiendo más sus tentáculos para expandir de forma eficiente sus conjuntos de datos. Y por ello vemos como van entrando en más y más mercados, buscando crear un conjunto de datos único y privado que les permita entender mejor al cliente.

Así que me pregunto: ¿está vuestra organización trabajando con el dato como un activo de valor? y ¿comprende las potenciales ventajas competitivas que puede generar?

Y si no lo estáis haciendo, quizá ya es el momento de empezar.

Josep Curto es el director académico del Máster en Inteligencia de Negocio y Big Data (MiB) de la UOC. Así mismo es director de Delfos Research, empresa especializada en investigación de los mercados de Business Intelligence, Business Analytics y Big Data.

Posted in Big Data, Data, Data Driven, Data Governance, Data Monetization | Tagged , , , | Leave a comment

¿Podemos hablar ya del Big Data? Yo acuso

Tengo la sensación de que ya se está asentando la polvareda que el Big Data generó hace 4 años (está siendo sustituida por la polvareda de la Transformación Digital,…) y creo que es momento de que los que nos dedicamos a este mundo o mundos adyacentes, echemos la vista atrás y hablemos de estos pasados años.

Ahora que el cloud se está bajando al fog (vaya por dios…), que la innovación se viste de transformación digital (¿perdón?), y que el Big Data ya suena a manido, es hora de que pensemos en qué ha consistido todo este lío.

¿Qué os ha quedado a vosotros de estos años de locura y desenfreno?, ¿Qué os ha quedado de proyectos millonarios, equipos gigantescos, posiciones nuevas (mis amigos, los CDO’s…)?

A mí lo que me ha quedado es la sensación de oportunidad desaprovechada.

Creo que los que nos dedicamos a esto tendríamos que haber usado el término de moda para hacer pedagogía sobre el buen uso de los datos y su análisis, llamar a las cosas por su nombre, y poner ciertos puntos sobre ciertas íes….

En resumen, haber hecho todo lo posible para que la gente se acercara al Data Literacy, y empezara a usar el small, el relevant, el smart, e incluso el Big Data (si es que hubiera alguna diferencia) pero con cabeza.

Desde la (pequeña) parte del mundo que yo veo la pregunta o, mejor dicho ¡preguntas!, son ¿hemos hecho algo nuevo?,¿algo distinto? ¿hemos generado más negocio a nuestras empresas o clientes? ¿podemos asegurar que los datos (del tamaño que sean) se usan mejor?

El Big Data, en la vida real, en las conversaciones en el mundillo, en el día a día, era (y es) un concepto engañoso, lo mismo adquiere el disfraz de altos volúmenes de datos (¿verdaderamente estamos capturando más datos que antes?), que de tecnologías concretas (¡Hola appliances!¡Hola NoSqls!).

Lo mismo se viste de BI o de Analytics (¿ponemos la frontera?) que de refinado de datos (¿oís el rumor de esos Data Lakes convirtiéndose en Data Swamps donde la gente aprovecha y tira sus bicicletas antiguas, sus bidones vacíos…? ¿no se dan un aire a los antiguos Data Stages?).

El Big Data ahora se vestía de stream analytics (para los más nuevos del lugar, esto es a lo que antes llamábamos BPM analítico, o real time decision making), ahora de Machine Learning (¿a qué máquinas habéis hecho aprender hoy?)…

No quiero sonar negativo o melancólico, más bien al contrario.

Para todos los profesionales del sector, nuevos o veteranos, que habéis vivido con estupor estos últimos tiempos sólo tengo un mensaje:

Tranquilos.

Habéis visto hablar de materias que domináis a personas que no saben si “predictivo” lleva una hache intercalada o no, habéis visto inversiones sin pies ni cabeza, propuestas de proyectos que si hubieran pasado por el filtro de un Business Case (el algodón no engaña) no hubieran sido más que quimeras abocadas al fracaso, habéis visto…

Tranquilos.

Ahora que se asienta el polvo, que la gente empieza a despertar de la resaca del Big Data sólo para salir a correrse la juerga de la Transformación Digital, ahora que el torrente de acrónimos, logos, nombres, y dibujos está pasando, justo ahora es el momento de que os deis cuenta de que, en el fondo, y como siempre, esto solo ha ido, y seguirá yendo de unas pocas cosas que seguro que sabéis hacer:

Recoger datos, almacenarlos o procesarlos, y ayudar a tomar decisiones, automáticas o humanas, apoyándose en técnicas de modelado, visualización, y matemáticas avanzadas.

Tan fácil. Y tan difícil.

Álvaro Galán, experto en Business Analytics y profesor colaborador docente del máster en Inteligencia de Negocio y Big Data.

Posted in Big Data | Tagged | Leave a comment

Paradise papers y el rol de la analítica en el puesto de trabajo

Paradise Papers es el último de los ejemplos de lo que podemos llamar periodismo de investigación en la era de los datos, o lo que se conoce como periodismo de datos. Es decir, es periodismo fundamentado en evidencias y datos, y que requiere de técnicas para la captura, el procesamiento, el almacenamiento, el análisis y la presentación propios de la inteligencia de negocio, la analítica de negocio, big data y data science.

No es el único ejemplo en este sector. Otro de los grandes ejemplos es Panama Papers, auspiciado también por ICIJ, que ha ganado un pulitzer como reconocimiento a la relevancia en lo presentado.

Este par de ejemplos no solo son relevantes porqué ponen en manifiesto aspectos a investigar por los diferentes países (hecho que ya es sumamente relevante) sino porqué ilustran como las profesiones actuales se están transformando fundamentadas en las nuevas tecnologías, los algoritmos y el dato.

Sin duda alguna la sociedad se enfrenta actualmente a un gran reto. Mucho trabajos en múltiples sectores van a verse afectados por la tecnología. Desde trabajos como conductor de un vehículo hasta un abogado. El efecto será diferente pero, en todos los casos, de profundo calado.

Pensemos un momento en el efecto de la automatización de la conducción. No solo impactará sobre los conductores sino que puede impactar en toda su cadena de valor. Estamos hablando de gasolineras (¿si un algoritmo conduce no será capaz de reducir el consumo de gasolina?), seguros (¿no habrán menos accidentes?), talleres (¿no se reducirá el desgaste?),…

En el sector de abogacía, ya no es necesario pasar días revisando el departamento de documentación para encontrar todos los casos similares a los que se está tratando, los temas relevantes tratados en caso es posible detectarlos mediante técnicas de text mining y incluso para conocer la tendencia la predisposición de un juez respecto un caso es posible usar la información de casos previos.

Aún estamos entiendo que va a suponer en la redefinición de dichos sectores. Y en todos ellos, tanto una palanca como una solución a esta situación son los datos y los algoritmos.

En la época de las fake news, en las que medios de comunicación están supeditados a las fuerzas de pocos y se usan campañas mediante facebook y otros medios sociales para modificar la opinión de la sociedad, necesitamos que las personas entiendan lo que sucede pero también, y esto es sumamente importante, profesionales que trabajen por las trasparencia mediante el dato y los algoritmos.

¿Cómo serán las profesiones del futuro aumentadas por los algoritmos y los datos? Aún lo estamos descubriendo (y MITSloan ya intenta dar una visión), pero espero que sean tan interesantes como el periodismo de datos y la abogacía de datos, a la que frecuentemente nos referimos como legal analytics.

Posted in Big Data, Business Analytics, Business Intelligence, Data, Data Driven, Data Science | Tagged , , , , | Leave a comment

Monetizar el dato y licencias de uso

Hace unos años hablar de explotar el dato se centraba principalmente en la toma de decisiones. En permitir, habilitar y mejorar la toma de decisiones. Más rápida y más eficiente. Ya sabemos que las organizaciones hacen uso de la inteligencia de negocio para dicho cometido.

Actualmente la explotación del dato presenta múltiples opciones. Entre ellas la monetización del dato. Es decir, la generación de nuevos ingresos fundamentados en los datos de la organización.

Es necesario remarcar que frecuentemente es más fácil desarrollar una estrategia de reducción de costes que una de monetización, y en el mejor de los casos encadenarlas. Algunos de los beneficios de la primera (como liberar presupuesto) pueden ser aplicados en la segunda.

¿Qué opciones disponemos?

Existen múltiples opciones:

  • Crear productos fundamentados en datos como ya he discutido anteriormente aquí. En estos productos, el dato (y los algoritmos) forman parte fundamental del mismo. Por ejemplo, en esta categoría tenemos nest.
  • Codificar servicios digitalmente y aumentar su propuesta de valor mediante datos y algoritmos. Por ejemplo, el servicio de fotografías de google photos que propone mejoras de las fotografías que alojamos en su servicio.
  • Otra opción igualmente interesante posible es empaquetar datos de forma adecuada para su venta a terceros.

Cada uno de estos casos tiene su dificultad.

  • En el primero de ellos, por ejemplo, las organizaciones se enfrentan al reto de combinar la analítica con un objeto físico que magnifique y potencie las características del producto de forma natural.
  • En el segundo, un aspecto similar ocurre en el que la analítica debe estar supeditada a la función del servicio (y de hecho, los mejores servicios son aquellos donde el valor se percibe pero su integración es perfecta).
  • En el tercero, múltiples retos emergen sobretodo del hecho de empaquetar el dato de forma adecuada. De forma adecuada tiene múltiples significados, entre ellos: (1) respetando la regulación que aplica al dato por su naturaleza, industria y localización geográfica, (2) en el formato adecuado para su consumo, (3) bajo una licencia de uso adecuada y (4) securizado y anonimizado (mediante técnicas de data privacy).

¿Cómo licenciamos el uso?

El comercio del dato es un tema muy sensible. Lo discutimos en muchas de nuestras asignatura como Customer Analytics.

Los motivos para compartir y/o comercializar datos con terceros pueden ser múltiples. A parte de soluciones técnicas, es necesario acuerdos coherentes con las regulaciones y demás puntos relevantes. Es interesante que tenemos, desde hace bien poco, a nuestra disposición un nuevo tipo de acuerdo: Community Data License Agreement (CDLA).

Esta iniciativa, auspiciada por la Linux Fundation, busca trasladar el marco de acuerdos (y licencias) que existen en el ámbito de open source al ámbito del dato en dos modalidades inicialmente: sharing y permissive.

Sharing bebe de las premisas del copyleft. y es su equivalente en el mundo del dato. Mientras que permissive hace referencia al copyfree.

Estas modalidades no necesariamente encajaran en todos los proyectos en los que debamos trabajar con datos de terceros y compartirlos, pero suponen una más que bienvenida opción para aquellas empresas interesadas que pueden apalancarse sobre ellas en algunos de sus proyectos.

¿Ya estáis usando el licenciamiento adecuado para vuestras iniciativas de datos?

Posted in Big Data, Data Monetization | Tagged , | Leave a comment

Data Literacy

De un tiempo a esta parte hemos empezado a hablar del concepto de data literacy. Una definición que podemos usar para este término es la capacidad de transformar los datos en información relevante y hacer un uso acorde de dicha información.

¿Por qué se está volviendo este concepto importante? Porqué a medida que las organizaciones quieren tomar mejores decisiones se intentan fundamentar en datos y evidencias. Y ello se traslada a cada una de las personas que participan en la organización y no sólo a los expertos en Business Intelligence, Business Analytics, Big Data o Data Science.

Esto viene a colación puesto que hace unos días me preguntaba una periodista si todo el mundo debería aprender las tecnologías de Big Data. Como os podéis imaginar es una pregunta interesante, pero cuya respuesta no es quizá la que se espera todo el mundo.

No es necesario que todo el mundo se convierta en un experto en Big Data o en un científico del dato y, sin embargo, si es completamente imprescindible adquirir habilidades en el ámbito de data literacy.

¿Qué habilidades componen este ámbito? Son múltiples y tan solo listaremos algunas de ellas:

  • Conocer cuando es apropiado usar un dato para un propósito específico. Por ejemplo, en la segmentación de clientes.
  • Saber interpretar visualizaciones de datos, como gráficos y tablas. Por ejemplo, comprender qué significa un gráfico de dispersión.
  • Aplicar el pensamiento crítico a la información derivada del análisis del dato. Por ejemplo, para evaluar cuando una información que hemos recibido tiene sentido o no.
  • Entender qué herramientas y métodos analíticos existen, y cuando, cómo y donde se pueden aplicar. Por ejemplo, conocer para qué sirve el análisis de afinidades.
  • Reconocer cuando los datos han sido manipulados o mal interpretados. Por ejemplo, cuando se comunican los resultados de una empresa.
  • Saber comunicar información respecto datos a personas sin las capacidades adecuadas. Lo que frecuentemente se conoce como data storytelling.

En estos puntos nos encontramos conocimientos de múltiples ámbitos: matemáticas, estadística, programación, comunicación, visualización, pensamiento crítico y analítico,…  a diferentes niveles de profundidad.

Si queremos organizaciones mejores, y ya puestos a pedir, una sociedad mucho mejor, no se trata tan solo de saber usar herramientas que permitan capturar, procesar, almacenar, analizar y visualizar datos. Necesitamos personas con las capacidades anteriores, que puedan analizar situaciones desde una perspectiva crítica y sean participes de una cultura analítica.

En definitiva, no se trata de desplegar un proyecto de datos sino realmente transformarse en una organización orientada al dato en todos sus niveles y para ello es necesario implicar a todo el mundo. ¿Estamos adquiriendo estas competencias? ¿Está nuestra organización ayudando a desarrollar estas competencias?

Como punto final, os recomendamos ver las siguientes charlas:

Fuente: The age of data literacy, Uldis Leiterts, TEDxRiga

Fuente: Making data mean more through storytelling, Ben Wellington, TEDxBroadway

Posted in Big Data, Business Analytics, Business Intelligence, Data, Data Driven, Data Literacy, Data Science | Tagged , , , , , , | Leave a comment

Big Data Talent Awards 2017

A los que nos dedicamos desde hace mucho tiempo a la educación nada nos produce mayor satisfacción que los éxitos de nuestros alumnos tanto dentro del programa (en su progresión en el aprendizaje, en sus trabajos finales dónde plasman los conocimientos adquiridos,…) así como en sus carreras profesionales en las que aplican y proyectan sus conocimientos.

Nos gusta reconocer el trabajo de nuestros estudiantes en la entrega de su título una celebración cargada de emociones por todo el esfuerzo invertido. Y también a nivel personal, hablando con ellos, felicitándoles por su trabajo. Pero esto es un reconocimiento interno.

Esta reflexión viene a colación de la celebración del Big Data Talent Awards en Barcelona organizado por BigDataCOE y que está patrocinado Oracle.

En la edición de 2017 hemos alentado a algunos de nuestros estudiantes a presentarse con sus trabajos finales. Hemos considerado que han hecho trabajos excepcionales y de gran calibre. Y creíamos que no solo nosotros debemos mostrar dicho reconocimiento.

Es un placer y honor para comentar que uno de nuestros alumnos, Albert Vergés López, ha ganado el primer premio en la categoría “proyecto de finalización de master o posgrado” con su trabajo “Identificación de la brecha entre oferta y demanda del mercado laboral“.

¡Desde todo el profesorado te damos la enhorabuena por este reconocimiento! También me gustaría felicitar a tu director de proyecto, Diego Miranda Saavedra, por su buen hacer en la dirección del proyecto y por extensión a los granitos de arena que el resto de profesorado te ha proporcionado en tu itinerario.

Este reconocimiento público del trabajo de nuestros estudiantes nos motiva todavía más a mejorar nuestros programas. ¡Ahora a continuar trabajando!

Posted in Big Data, BigDataAdwards | Tagged , | Leave a comment

Ética en el contexto de IA

Justo hace unos días en Informatica++, se hablaba de un tema cada vez más relevante para el análisis del dato: la ética.

Justo hoy leemos que DeepMind en The Verge, de Google, ha creado un equipo (llamado DeepMind Ethics & Society) para investigar los efectos de la inteligencia artificial sobre la sociedad. Quizá a algunos les sorprenda, por el carácter altruista que inicialmente podemos dotar al suceso. Un poco más centrados en la noticia, descubrimos que DeepMind ha tenido problemas en el pasado en un proyecto de análisis de datos de pacientes de NHS. El proyecto en cuestión fue declarado ilegal.

Dentro del marco de GDPR, va a ser natural que las empresas se encuentren más y más problemas. Pero no sólo se trata del dato sino del tipo de análisis realizados y los resultados del mismo. La aparición de algoritmos como el gaydar debería ponernos en alerta de los peligros de la clasificación dicótomica de las personas y, sobretodo, del uso que se quiere dar a dicha clasificación (entre ellos un bombardeo indiscriminado de fake news que sigue siendo un problema de gran calado).

Este tema no es nuevo y es necesario que todos lo tengamos en cuenta. Para los interesados, recomendamos la lectura (o incluso relectura) de Weapons of Math Destruction de Cathy O’Neil. Este libro está escrito desde la perspectiva de un profesional que tras trabajar en el ámbito descubre las desigualdades y descriminación creados a partir de los algoritmos. De hecho, lo interesante es que se vuelve un activista intentando resolver algunas de estas desigualdades.

Uno de los problemas al que se enfrentan los profesionales del dato (sin entrar en las múltiples categorías existentes) es que aquellos análisis de datos que aplican o crean (y que sin duda pueden llegar a ser muy beneficiosos para una organización) a veces no lo son tanto para las personas. No se trata entonces tan solo de conocer la regulación, las técnicas, las mejores prácticas, el uso de técnicas de privacidad de datos, … sino también qué valores éticos debe tener nuestra organización. Y que en la fórmula del valor para cliente se tengan en cuenta estos puntos.

En una época como la que estamos viviendo, la revisión de los valores éticos se vuelve absolutamente necesaria. Así que, ¿ya tiene tu equipo de big data y data science un experto en ética? Sino, es el momento de ponerse manos a la obra.

Posted in Artificial Intelligence | Tagged , | 1 Comment

IA y chips

Desde hace un par de años, estamos escuchando noticias de procesadores especializados en inteligencia artificial o, mejor dicho, en machine learning.

Aunque pueda parecer que esto es una novedad, ya en 1992 se creó el primer procesador especializado para ejecutar deep neural networks en Bell Labs, como se recordaba hace unos meses en Wired, pero nunca se llegó a masificar su producción.

A mediados de 2016, Google anunció su TPU (Tensor Processing Unit): una unidad de procesamiento optimizada para la ejecución de TensorFlow (la biblioteca de aprendizaje automático de Google con foco en neural networks). El anuncio se acompañó con la explicación de casos de uso en Google Street View o la serie de partidas AlphaGo (donde tiene mucho que decir DeepMind) que se habían aplicado durante el año anterior.

Este hito ha puesto otras empresas a la carrera de crear sus propios procesadores ASICs (circuito integrado de aplicación específica) como se ya comentaba en Forbes. Hemos empezado a escuchar sobre Huawei, IntelCerebra Systems,… incluso Tesla.

En esta progresión de casos de uso en el mundo real, nos encontramos un nuevo hito. Los nuevos productos de Apple (iPhone 8, 8+ y X) incluyen también un nuevo procesador con una unidad para aprendizaje supervisado (denominada Dual core ISP Neural Engine) para el reconocimiento facial en FaceID.

¿Por qué es un hito?

En el caso de Google, el procesador era de uso interno (inicialmente) y ahora como servicio en la nube. En el caso de Apple, estamos hablando de una fabricación a gran escala en millones de dispositivos lo que supone poder justificar los costes de diseño y fabricación de un nuevo procesador desde cero (y sobretodo su futura evolución).

¿Por qué son necesarios los procesadores de aprendizaje supervisado?

Las revoluciones en el contexto del análisis del dato van por ciclos en los que se van alternando avances en software y en hardware. Hace unos años hablamos de las appliances para data warehouse, es decir,  hardware diseñado específicamente para las operaciones que se realizan en el diseño, construcción, mantenimiento y evolución de un data warehouse.

Dar la respuesta a nuevas necesidades, como la realidad aumentada o el reconocimiento facial en tiempo real, requiere no solamente de mejores algoritmos sino también de aceleradores por hardware. GPU Computing surge como una de las opciones ante esta necesidad para dar respuestas a necesidades de Big Data. Otro enfoque, el seguido por ejemplo Google o Apple, pasa por la creación de un nuevo procesador específico.

En este sentido, no debería sorprender a nadie que veamos a más y más empresas fabricando sus propios procesadores de aprendizaje supervisado en los próximos años para poder dar vida a nuevos e interesantes casos de uso. De nuevo, una vez más, el hardware también importa.

Posted in Artificial Intelligence, Big Data, Deep learning, Machine learning | Tagged , , | Leave a comment