Póngame un duplex (de Google)

Esta semana se celebró la I/O Conference 2018 de Google de igual forma que hace unos días hubo la primera conferencia de Facebook, tras el caso de Cambridge Analytica.

Uno de los puntos fuertes de la conferencia fue la presentación de Google Duplex, un asistente virtual que podemos entender como una evolución, y que pone foco en la automatización de la conversación telefónica con un humano.

La presentación de Google Duplex, aunque grabada de antemano, muestra un sistema que introduce la imperfección humana en forma de titubeos, dicción, tono y palabras combinadas que hacen que sea complicado (por no decir, imposible) detectar que hay un asistente detrás de la llamada.

A nivel tecnológico, podemos pensar que es un ejemplo impresionante del uso de las tecnologías de big data y machine learning, y sin duda alguna lo es. Podemos imaginarnos múltiples casos de uso tanto para consumo como para las empresas condicionadas claramente por el conjunto de datos disponible para entrenar el sistema, el conocimiento del dominio y la capacidad de escalar este servicio. Por ejemplo a nivel empresarial:

  • Uso en call centers de soporte (para atender a quejas, dudas, etc).
  • Uso en servicios de telemarketing para venta.
  • Uso en servicios de información (por ejemplo, información turística)
  • Uso en hospitales,…

Pero esta presentación no ha tenido una gran acogida. La maravilla inicial (en el evento, dónde impera el positivismo tecnológico) ha derivado en una crítica vinculada a la ética y la moral del uso de AI en ciertos ámbitos. Esto no debería sorprendernos, tenemos demasiado fresco el caso de Cambridge Analytica, en el que se ha usado sistemáticamente los datos de Facebook para manipular al ciudadano (aunque no son los únicos que no lo han hecho) y la presentación de estos servicios (fundamentado en el dato) serán mirados con lupa (mientras no haya un mecanismo eficiente y una muestra clara de responsabilidad por parte de los creadores).

Desde mi humilde punto de vista, Google debe proporcionar mecanismos para que los casos de uso no sean solo una máquina de generar dinero (objetivo claro) y un mecanismo de mejora (de costes y de atención al cliente), sino deben evitar que se conviertan en otro mecanismo de spam, manipulación de la sociedad y de generación de posibles sociedades (como las descritas en anime y manga) de tintes profundamente negativos, como se está convirtiendo desafortunadamente Facebook.

About Josep Curto Díaz

Josep Curto es el director académico del Máster en Inteligencia de Negocio y Big Data (MiB) de la UOC. Así mismo es director de Delfos Research, empresa especializada en investigación de los mercados de Business Intelligence, Business Analytics y Big Data.
This entry was posted in Big Data, Ethics, Facebook, Machine learning and tagged , , , . Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *