Job Offer: Junior Data Analyst at UOC

Junior Data Analyst position

Open Evidence, an spin-off, and the TESLA project , an European project, are seeking for a Junior Data Analyst to participate in projects and activities related to data analysis working in close collaboration with Data Architects and Senior Data Analysts.

More information: http://open-evidence.com/data-analyst-position/

Àngels Rius es profesora del Máster en Business Intelligence y el Máster en Data Science de la UOC, así como del área de bases de datos de los Estudios de Informática Multimedia y Telecomunicación. Actualmente su investigación se enmarca en el ámbito del eHealth.

Posted in Uncategorized | Leave a comment

Data First

Cuando no hemos superado (implementado, desarrollado) todavía las estrategias mobile-first y cloud-first, resulta que ya estamos hablando de AI-first. Y sin embargo, antes de volcarse en una estrategia donde la inteligencia artificial lo impregne todo, muchas de las organizaciones deben considerar un paso intermedio: data-first.

Aunque ahora McKinsey nos traiga esta entrevista (enlace anterior), este no es un tema nuevo. Podríamos resumirlo en el clásico: garbage in, garbage out. Cualquier estrategia de analítica está condenada al fracaso si no hay un cambio de calado profundo respecto la percepción del dato, que pasa a ser un activo crucial para la organización.

Ya hemos tratado en diferentes ocasiones el tema de convertirse en una organización orientada al dato, la necesidad (o no) de tener un CDO (incluso en contextos que no se prestan), si un centro de excelencia puede ayudarnos en nuestra organización, cuán relevante es el gobierno del dato y que monetizar el dato no es un aspecto sencillo.

Discutía hace poco, con algunos directivos, sobre la dificultad de usar algoritmos dentro de la organización. Entre los aspectos que revisamos se citaron muchos (frecuentemente aprendidos a fuego, incluso con cicatrices dolorosas) como, por ejemplo, cómo interpretar los resultados, cómo decidir cuál es el mejor algoritmo, por qué no existe un único algoritmo que resuelva todos los problemas (ya sabéis un algoritmo maestro), el problema de etiquetar los datos, la dedicación necesaria para mejorar la calidad del dato (y qué poco sexy eso resulta),… y otros mucho más centrados en organización como qué perfiles necesitamos, cómo los organizamos, bajo qué estructura,…

También un artículo reciente de InformationWeek se hace eco de barreras relevantes que limitan las estrategias analíticas. A saber:

  • Los objetivos de negocio y los esfuerzos analíticos no están alienados (esto me suena a la típica separación entre el CIO y el CEO)
  • Hay conocimiento pero no acción (y, por lo tanto, nos quedamos en la fase comtemplativa)
  • No hay roadmap (para realizar una transición desde la analítica descriptiva a la corriente más actual).
  • No hay calidad del dato (sin base no hay casa)

Estas preguntas son comunes (y frecuentes!) a muchas empresas y forman parte de empezar a tomar en serio la transformación digital (o la palabra que se quiera usar, a preferencia del lector). Parece que ya no es necesaria la evangelización, sino que es hora de ponerse en serio a dar pasos. No solo se trata de implementar proyectos de BI, sino de cultura y, como dice Davenport en uno de sus últimos artículos de Harvard, en esto último no lo estamos haciendo bien. Y parte de la solución es aumentar el conocimiento (que no envangelizar). Además, quizá sea hora de tener en cuenta los cuatro pilares de la estrategia de sistemas de información además de la strategy-as-a-practice como dice José Ramón.

Por ello nosotros continuamos en la nuestra y el próximo día 14 empezamos la siguiente edición de nuestro Máster en Inteligencia de Negocio y Big Data para poder discutir estos puntos y más con nuestros alumnos.

Posted in Data Driven | Tagged | Leave a comment

Review – Learning Pentaho Data Integration 8 CE

Dentro de nuestro Máster de Inteligencia de Negocio y Big Data, se hace uso de múltiples herramientas tanto propietarias como open source que cubren un amplio abanico de las necesidades de una organización.

Entre ellas Pentaho Data Integration (PDI). PDI es una herramienta de integración de datos, con foco en los procesos ETL (Extract-Transform-Load).

PDI es una herramienta muy versátil no solo aplicable en el contexto de inteligencia de negocio o big data, sino también en el desarrollo de aplicaciones, migración de sistemas o incluso data science!

Dominar este tipo de herramientas es cuestión de tiempo y práctica, principalmente por la gran cantidad de opciones y múltiples enfoques y posibilidades de optimizar los procesos ETL.

¿Cómo acelerar mi aprendizaje? A parte de cursar un programa,,… podemos revisar la documentación disponible, los ejemplos de incluye PDI, buscar videos de aficionados y  expertos,… o leer libros que recojan las últimas novedades sobre esta herramienta.

Hemos tenido la oportunidad de acceder y leer el último libro de Maria Carina Roldán llamado Learning Pentaho Data Integration 8 CE – Third Edition: An end-to-end guide to exploring, transforming, and integrating your data across multiple sources.

Es un libro muy interesante y sobretodo actualizado a la última versión de PDI (la 8). Por un lado, tiene una introducción a la herramienta (interfaz, funcionalidad básica, tipo de objetos que se pueden crear -transformaciones y trabajos-, variables, parámetros,…). Por otro, se centra en ejemplos fundamentales para los proyectos de integración de datos. Por citar algunas de ellos:

  • Acceso y lectura de diferentes fuentes de datos.
  • Limpieza de datos.
  • Carga de dimensiones
  • y muchos más.

Muchos de los ejemplos explicados son relevantes cuando estamos realizando un proyecto de integración de datos y el diseño del libro en formato recetas permita que se convierta en un libro de cabecera.

Tanto si uno se inicia como si es un experto, es posible encontrar secciones interesantes en este libro. Eso le da un punto a favor, puesto que no es tan solo un libro orientado a los que empiezan a trabajar con PDI.

Por lo que es una buen añadido a la colección de libros, sobretodo si se trabaja con PDI.

Posted in Data Integration, Pentaho | Tagged , , | Leave a comment

Proyecto fin de máster de la competición de Kaggle “Predicción de Ventas de Comestibles Corporación Favorita”

Gabriel Kreplak acaba de finalizar su proyecto fin de máster en el Máster de Inteligencia de Negocio y Big Data, que estaba enmarcado en una competición de Kaggle. Ha recibido la calificación de matrícula de honor y ha conseguido estar entre el 17% de mejores participantes (269/1675) de la competición de Kaggle Corporación Favorita. Su trabajo, ya está disponible en el repositorio de la UOC: http://hdl.handle.net/10609/74565.

Laia Subirats, directora de su trabajo final, nos da a conocer de primera mano, mediante una entrevista con Gabriel, su experiencia, sus motivaciones y el reto de combinar Kaggle y el trabajo final.

Para empezar, ¿podrías explicarnos un poco tu perfil profesional y qué te motivó a estudiar el Máster en Inteligencia de Negocio y Big data de la UOC?

Tengo 59 años y hace unos 25 me dedico a la automatización de procesos industriales de energía, agua y proceso. Me matriculé en este máster con ganas de dar un giro a mi carrera profesional, buscando nuevas motivaciones. Siempre me gustaron los datos, por lo que nunca dudé que esta formación me interesaba. La posibilidad de un máster no presencial, me ofrecía la flexibilidad que yo necesitaba en mi actividad.

¿Qué motivó tu interés en la ciencia de datos?

El impacto que está teniendo el cambio de paradigma en la gestión de los datos respecto a muy pocos años atrás es cada vez más evidente en nuestro día a día. Creo que es una revolución sutil pero de la importancia que tuvo en nuestras vidas la irrupción de internet en los 90.

Opino que estamos en los albores de la ciencia de datos y que las nuevas herramientas que se desarrollan y mejoran constantemente para extraer sabiduría de los datos tienen un recorrido enorme. Quiero ver de cerca cómo evoluciona el Machine Learning. Y si me puedo ganar la vida con ello, pues se cierra para mí el círculo virtuoso.

¿Cuál ha sido tu motivación para querer enmarcar una competición de Kaggle en tu proyecto fin de máster?

Lo tenía pensado desde hacía tiempo, casi desde que descubrí Kaggle al principio del máster. La considero una plataforma ideal para a) introducirse en metodologías y algoritmos competitivos, b) ponerse al día permanentemente, c) compartir experiencia y d) buscar una puntuación que acredite un trabajo que servirá para abrirte nuevos horizontes laborales.

Me motiva, y mucho, la facilidad que da esta plataforma para el trabajo en equipo. De momento no experimenté participar en un equipo competitivo, pero no lo descarto en absoluto. Pero necesito avanzar más y encontrar compañeros de equipo adecuados.

¿Cómo empezaste con Kaggle?

Empecé porque se mencionaron estas competiciones al principio del máster, creo que en la asignatura Fundamentos de Business Intelligence junto con otras plataformas como CrowdAnalytix, etc. Y empecé como creo que empiezan la gran mayoría, con la competición del Titanic, que predecía los supervivientes en función de diversas características de los náufragos.

Pero por falta de tiempo y conocimientos no persistí y no me apunté a más competiciones ya que tenía por delante dos semestres de trabajo de máster, por lo que decidí posponer mi incursión definitiva.

¿Cuáles han sido las dificultades que has tenido que superar durante la competición?

No sabría hablar en términos de dificultad porque las técnicas más difíciles y la aplicación de los algoritmos más opacos están bastante explicados en Kaggle y especialmente fuera. La clave es la lectura, la paciencia y experimentar. Con el asesoramiento de mi directora, escogimos una competición que cuadraba con la agenda del Trabajo Final de Máster. Y la propia asignatura impuso un ritmo que a veces se hacía frenético. Pero gracias a ello y a que el plazo de la competición se agotaba, pude cerrar el trabajo. Creo que eso es lo que más me costó.

¿Cómo te ha ayudado el máster de la UOC y Kaggle para mejorar tus habilidades de científico de datos?

Me apunté al máster queriendo entender cómo se extrae información relevante de los datos masivos. Conocía bases de datos relacionales y sobre big data y machine learning apenas había leído. Habiendo acabado el máster tengo la sensación de haber atravesado un umbral. Creo que ahora soy capaz de identificar lo que tengo que aprender para convertirme en un científico de datos.

Kaggle puede ser una herramienta muy interesante, por lo motivante, por lo pedagógico y por el reconocimiento que se puede obtener de hacer un buen papel.

Quiero aprovechar esta ocasión para animar a la UOC a incluir en el curriculum de este máster elementos que permitan a los alumnos acometer proyectos con los conocimientos básicos de las técnicas actuales, organización del proyecto, trabajo en equipo, algoritmos eficientes, asesoramiento por parte de data scientist con un buen score, etc.

Para mí, sería enormemente atractivo.

¿Cómo te ha ayudado el máster de la UOC y Kaggle en tu carrera profesional?

De momento, no le he sacado mucho partido profesional al máster o a Kaggle. Pero confío en que, cuando me lo proponga, ayuden mucho.

Si tuvieses que dar una recomendación a un/a compañero/a sobre realizar su trabajo fin de máster enmarcado en una competición de Kaggle, ¿qué consejo le darías?

El trabajo final de máster es algo muy personal y que te tiene que motivar. Si el compañero o compañera le gusta el machine learning, leer en internet y tiene paciencia para los momentos bajos, que inevitablemente aparecerán, cuando alguna librería se resista a instalarse o cuando parezca que estamos en un callejón sin salida, entonces yo le aconsejaría sin dudarlo que intente hacer su TFM con una competición. Lo va a pasar muy bien.

Laia Subirats es doctora en informática por la Universitat Autònoma de Barcelona (2015). Compagina su colaboración como profesora del Grado de Ingeniería Informática y del Máster en Inteligencia de Negocio y Big Data de la Universitat Oberta de Catalunya (UOC) con su investigación en el área de ciencia de datos en medicina en Eurecat – Centro Tecnológico de Cataluña.

Posted in Big Data, Kaggle, Machine learning | Tagged , , | Leave a comment

El mercado de datos siempre en evolución

El mercado de datos (o mejor dicho de datos y algoritmos) está en una constante evolución. El profesional del dato (sea cual sea su rol dentro de espectro de roles que incluye el ingeniero del dato, el consultor o el científico del dato, entre otros) debe estar atento a todos los cambios y novedades. Mantenerse al tanto no es un trabajo sencillo, puesto que por su perfil deben estar atentos a novedades en múltiples ámbitos.

Vamos a tratar tres puntos como ejemplo.

Tecnología

Los cambios a veces hacen referencia a nuevas versiones de tecnología. Algunas de ellos son muy relevantes puesto que afectan tanto a implementaciones ya existentes o elecciones futuras. Este es el caso del lanzamiento de Apache Hadoop 3.0 que como explican en el blog de HortonWorks, supone grandes cambios significativos, por ejemplo, para Data Lakes. O el ecosistema que continua creciendo para proporcionar más y más valor (por ejemplo, Apache Trafodion, que proporciona Transactional SQL-on-Hadoop).

Regulación

Otras veces hacen referencia a la regulación. Que la analítica ha cambiado las reglas del juego en muchos mercados es algo que ya saben nuestros lectores. Ahora la regulación va a cambiar las reglas de la analítica. El próximo 25 de mayo de 2018 se exigirá a las empresas el cumplimiento del Reglamento General de Protección de Datos (GDPR). Esta regulación  busca ampliar los derechos de los sujetos de datos y establece mayores restricciones a la toma decisiones automáticas. Es decir, afecta considerablemente a la analítica de clientes y al uso de aprendizaje automático e inteligencia artificial.

GDPR establece “toda persona tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado que produzca efectos jurídicos en ella o le afecte significativamente de modo similar”. Es decir, en el consentimiento explícito debe informarse al sujeto de la lógica aplicada y de las consecuencias del algoritmo. Este nivel de trasparencia a nivel de algoritmos va a producir un dolor de cabeza a muchísimas organizaciones.

Algoritmos

Los cambios también afectan a los algoritmos. El dominio de deep learning está captando mucha de la atención por parte de empresas y instituciones académicas. El profesional del dato debe conocer en cierta medida los principales avances (un buen resumen es éste). Y no dejado de evolucionar. Por ejemplo, ahora hay mucha atención en las redes neuronales generativas. Mantenerse al tanto requiere revisar artículos académicos, participar en eventos y meetups.

Así que el profesional de la analítica y del dato, no solo debe comprender el negocio, saber capturar, procesar, almacenar, analizar y visualizar el dato, sino que además debe aprender cada día un poco más. Todo un reto, ¿no?

Posted in Big Data, Data Science, Deep Learning, Machine learning | Tagged , , | Leave a comment

UOCMeet: Data Science

Hablamos hace unos días que participaré en el ciclo de data science para UOC Alumni que empieza hoy (12/02/2018). Aunque el ciclo es virtual tiene un sesión presencial en Madrid, en lo que hemos llamada UOCMeet: Data Science, el próximo 19 de Abril [actualizado].

Si en el ciclo he participado como ponente, en el evento presencial lo haré con el rol de moderador de la sesión. Será un placer compartir esta sesión con grandes profesionales como Mar Cabra y Jose Ramón Cajide.

Con ellos hablaremos de los retos de Data Science. Como os podéis imaginar con este elenco de invitados será una sesión muy interesante. ¡Espero también desvirtuarme con algunos de vosotros!

Esta iniciativa se une a otras acciones de divulgación como el MOOC de Introducción al Business Intelligence y Big Data que empieza el día 19 de febrero (aún estáis a tiempo de inscribiros), los UOC Data Days (pronto anunciaremos nuevas fechas) o la participación en competiciones nacionales por parte de nuestros estudiantes como el Cajamar UniversityHack 2018 en 10 equipos por parte de la UOC compiten en los dos retos propuestos y a los que deseamos muchísima suerte y, sobretodo, diversión.

Posted in Data Science, Evento, MOOC | Tagged , , | Leave a comment

Amazon Go y el futuro del trabajo

En el primer programa de My Next Guess Needs No Introduction, David Letterman entrevista a Barack Obama y durante la conversación se hace referencia a que los avances tecnológicos están transformando todos los sectores y afectan profundamente lo que entendemos como trabajo.

Consideramos que la combinación de todas las tecnologías actuales está acelerando la automatización y va a obligar a muchas empresas a no solo pensar en cómo serán los procesos de negocio en los próximos años sino en el rol de las personas en ellos y en el enfoque combinado de tecnología y personas. Esto sin duda alguna debería ser un tema del comité de dirección y también del ministerio de cualquier país, hemos hablando anteriormente que consideramos que son necesario nuevos roles en administración pública.

Como formadores estos temas nos preocupan profundamente. Nos preocupan nuestro impacto en la sociedad, en proporcionar capacidades adecuadas, actuales y fundamentales a nuestros estudiantes y a trasmitir valores éticos.

El tema de la ética en el uso del dato y sus aplicaciones (y en particular en inteligencia artificial) también es un tema que nos preocupa. No es la primera vez que hablamos, pero es un tema recurrente por su impacto. En linea con el tema de las reglas de IA que publicamos hace poco, ahora el equipo de Microsoft publica un libro en abierto llamado The Future Computed: Artificial Intelligence and its role in society, donde se trata el tema de la ética también.

Toda esta reflexión viene por la puesta en marcha de Amazon Go, y la lectura de uno de los últimos artículos del Ben Thompson, centrado en este tema. En este caso, el cajero de la tienda es el rol no necesario, aunque teniendo en cuenta la experiencia con los robots Kiva, otros roles dentro de ella (como el reponedor) podría tener sus días contados.

Es decir, estamos ante el inicio de un cambio de profundo calado. ¿Estamos ya haciendo algo por ello?

 

Posted in Artificial Intelligence, Ethics | Tagged , , | Leave a comment

Ciclo de Data Science

Dentro de los servicios premium de UOC Alumni, se inicia un ciclo de ciencia de los datos. Como os podéis imaginar, en él participan algunos de los profesores de nuestros programas:

Reproducimos su descripción:

Más de la mitad de la población mundial está conectada a internet y genera grandes cantidades de datos que pueden ser útiles si se manipulan de forma adecuada.

Las 4 cápsulas que forman el ciclo dedicado al Data Science se centran en la gestión de la información. Qué es el Data Science; los retos que plantea; los lenguajes de programación que utiliza, y cómo podemos extraer, limpiar, procesar y comunicar los datos dando respuestas, son los ejes de este ciclo que contribuye a la actualización profesional.

El ciclo finalizará con un UOCMeet, el 8 de marzo en Madrid (19h). En el encuentro presencial debatiremos sobre data science y hacia dónde evoluciona este nuevo paradigma de la información.

Seguro que será interesante para la comunidad alumni ahora que todas las organizaciones deben orientarse al dato.

Posted in Data Science, UOC Alumni | Tagged , | 1 Comment

MOOC BI y Big Data: a la cuarta va la vencida

Comentábamos el año pasado que no hay dos sin tres. Y este año decimos que a la cuarta va la vencida. Así que ¡volvemos con la cuarta edición del MOOC “Introducción al Business Intelligence y Big Data“!

Durante los últimos tres años hemos adquirido una buena experiencia en el ámbito de los MOOCS a través de la plataforma MiriadaX, que ya comentamos en su momento aquí y aquí. Teniendo en cuenta la gran aceptación de las anteriores ediciones y la gran cantidad de personas que no pudieron realizar anteriores ediciones hemos decido repetirlo una vez más.

Este MOOC, como su título indica, es inteligencia de negocio y Big Data, competencias que llevamos formando desde hace más de una década y que son absolutamente cruciales en la actualidad para trabajar y gestionar escenarios VUCA y en el que es necesario convertirse en una organización orientada al dato, como hemos comentado más de una vez (1 y 2).

Hemos preparado un video para presentar esta edición:

4a edición MOOC Business Intelligence y Big Data

Tras tres ediciones el interés ha sido fenomenal: más de 42.600 personas interesadas en las tres ediciones y casi 9.800 estudiantes que terminaron con éxito su correspondiente edición. Hemos aprendido mucho en estas tres ediciones. Lo hemos comentado en detalle aquí, aquí y aquí.

Para esta cuarta edición hemos mantenido la misma estructura que en la tercera edición y sólo algunos pequeñas correcciones aquí y allá.

El curso tiene una introducción donde explicamos los objetivos y capacidades, la estructura del programa y la metodología y claves para un seguimiento efectivo y se desarrolla durante un mes a través de cinco módulos docentes:

  • Introducción al BI. Es un módulo conceptual de presentación de los sistemas de Inteligencia de Negocio, sus usos y modo de funcionamiento, la gestión de proyectos de BI y la evolución de las empresas y de las profesiones en este ámbito.
  • Arquitectura de sistemas BI. Se presenta la “fábrica de información” o cómo se convierten los datos internos y externos de una empresa u organización en información útil para tomar decisiones. Se explican los sistemas de almacén de datos o data warehouse y conceptos básicos de bases de datos.
  • Data Science. En este módulo explicamos los modelos y algoritmos más frecuentes de clasificación y agrupación de datos y su tratamiento analítico y gráfico con el lenguaje R, que se ha convertido en un estándar de hecho en el mercado de inteligencia analítica. Como en anteriores ediciones, este módulo, incluye un taller de R opcional para permitir, a los estudiantes que lo desearon, aplicar los conceptos de Data Science explicados en la teoría.
  • Big Data. Explicamos el nuevo paradigma que representan los datos masivos, los usos y tecnologías disponibles y las nuevas clases de bases de datos (NoSQL) que se utilizan para recuperarlos, almacenarlos y tratarlos.
  • Tendencias en BI. Mostramos aquí algunos de los escenarios de uso más desarrollados (información social, geográfica o de clientes) y el movimiento de BI de código abierto (OSBI), con el cual la UOC se siente especialmente comprometida.

El curso está coordinado en esta edición por el director académico del programa de Inteligencia de Negocio y Big Data y se imparte por profesores del Máster de Business Intelligence y Big Data y de Ciencia de los Datos. Está compuesto por guías de estudio, vídeos, presentaciones y material docente complementario. Los profesores actúan también como moderadores de los hilos de discusión y consultas en el foro. Al término del programa se puede obtener un certificado de participación o un certificado de superación.

El MOOC comienza el 19/02/2018. Os damos de nuevo la bienvenida de nuevo al viaje al mundo de los datos y os invitamos a inscribiros aquí.

Posted in Big Data, Business Intelligence, MOOC | Tagged , , | 2 Comments

Reglas para IA

Muchos de nosotros, lectores ávidos de literatura de ciencia ficción, recordamos con cariño las tres reglas de la robótica de Asimov, que aparecieron por primera vez en el relato «Círculo vicioso», (1942).  Las recordamos para aquellos que nunca hayan tenido la oportunidad de leerlas:

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Años más tarde, en la novela «Robots e Imperio», se creó la ley zero que consiste en:

Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

¿A qué viene recordar estas leyes? En el contexto han empezado a aparecer decálogos a considerar para la inteligencia artificial (que en cierta medida recuerdan bastante a las leyes de Asimov).

El pasado Junio, el CEO de Microsoft, propuso 10 reglas (a continuación su copia directa) y que han sido comentadas por expertos:

Rule 1 – AI must be built to aid humanity and preserve our autonomy: Concerns for human autonomy will be witnessed in general, as more autonomous machines are being built. To protect human workers, collaborative bots must partake in dangerous activities, such as mining.

Rule 2 – AI must reflect transparency: AI empowers machines to know about us, however, it’s equally important that humans understand he intelligible machines as well. In other words, humans must be aware of how the technology works, and the associated rules. Moreover, it’s essential we have a understanding of how the technology analyzes results and its impact.

Rule 3 – AI must enhance efficiencies without destroying the dignity of people: The technology should preserve cultural commitments to drive diversity. This can only be possible with a broader, deeper, and more diverse engagement of populations in the design of these systems. Moreover, the tech industry shouldn’t dictate the values and virtues of this future.

Rule 4 – AI must be designed to address the need for intelligent privacy: There are various sophisticated protections available in the market around us. They are designed to secure personal and group information, in ways that earn trust.

Rule 5 – AI must reflect algorithmic accountability: Humans can undo unintended harm leveraging algorithmic accountability. These technologies must be designed in a manner that they can account for both expected and unexpected scenarios.

Rule 6 – AI must prevent bias: It’s equally important to ensure proper, and representative research for AI. This helps in preventing the use of wrong heuristics to discriminate.

Rule 7 – Need for empathy: This attribute could be considered critical to approaching AI, and is difficult to replicate in machines. Empathy will occupy a valuable spot in the human–A.I. world, helping us collaborate and build relationships, besides perceiving others’ thoughts and feelings.

Rule 8 – Need for education: Investment for AI education must increase, as it will be instrumental in creating and managing innovations. This will also help us in achieving higher level thinking and more equitable education outcomes. It’s usually a difficult social problem to develop the knowledge and skills needed to implement new technologies.

Rule 9 – Need for creativity: Creativity is one of the most coveted skills humans possess. This trait isn’t expected to change much within the years to come. However, machines will continue to enrich and augment our creativity.

Rule 10 – Focus on Judgment and accountability: Humanity has reached a level where it can gladly accept a computer-generated diagnosis or legal decision. However, we still expect a human to be ultimately accountable for the outcomes.

Estemos más o menos de acuerdo, creamos que se deben matizar o cambiar, es importante que si necesitamos nuevos roles tanto en administración pública como en organizaciones al convertirse el dato y el algoritmo en fundamentales, deberemos tener en cuenta valores y reglas éticas que guíen nuestra madurez.

¿Ya tienes tu propio decálogo de reglas para IA?

Posted in Artificial Intelligence, Chief Data Officer, Data Driven | Tagged , , | Leave a comment