IA y chips

Desde hace un par de años, estamos escuchando noticias de procesadores especializados en inteligencia artificial o, mejor dicho, en machine learning.

Aunque pueda parecer que esto es una novedad, ya en 1992 se creó el primer procesador especializado para ejecutar deep neural networks en Bell Labs, como se recordaba hace unos meses en Wired, pero nunca se llegó a masificar su producción.

A mediados de 2016, Google anunció su TPU (Tensor Processing Unit): una unidad de procesamiento optimizada para la ejecución de TensorFlow (la biblioteca de aprendizaje automático de Google con foco en neural networks). El anuncio se acompañó con la explicación de casos de uso en Google Street View o la serie de partidas AlphaGo (donde tiene mucho que decir DeepMind) que se habían aplicado durante el año anterior.

Este hito ha puesto otras empresas a la carrera de crear sus propios procesadores ASICs (circuito integrado de aplicación específica) como se ya comentaba en Forbes. Hemos empezado a escuchar sobre Huawei, IntelCerebra Systems,… incluso Tesla.

En esta progresión de casos de uso en el mundo real, nos encontramos un nuevo hito. Los nuevos productos de Apple (iPhone 8, 8+ y X) incluyen también un nuevo procesador con una unidad para aprendizaje supervisado (denominada Dual core ISP Neural Engine) para el reconocimiento facial en FaceID.

¿Por qué es un hito?

En el caso de Google, el procesador era de uso interno (inicialmente) y ahora como servicio en la nube. En el caso de Apple, estamos hablando de una fabricación a gran escala en millones de dispositivos lo que supone poder justificar los costes de diseño y fabricación de un nuevo procesador desde cero (y sobretodo su futura evolución).

¿Por qué son necesarios los procesadores de aprendizaje supervisado?

Las revoluciones en el contexto del análisis del dato van por ciclos en los que se van alternando avances en software y en hardware. Hace unos años hablamos de las appliances para data warehouse, es decir,  hardware diseñado específicamente para las operaciones que se realizan en el diseño, construcción, mantenimiento y evolución de un data warehouse.

Dar la respuesta a nuevas necesidades, como la realidad aumentada o el reconocimiento facial en tiempo real, requiere no solamente de mejores algoritmos sino también de aceleradores por hardware. GPU Computing surge como una de las opciones ante esta necesidad para dar respuestas a necesidades de Big Data. Otro enfoque, el seguido por ejemplo Google o Apple, pasa por la creación de un nuevo procesador específico.

En este sentido, no debería sorprender a nadie que veamos a más y más empresas fabricando sus propios procesadores de aprendizaje supervisado en los próximos años para poder dar vida a nuevos e interesantes casos de uso. De nuevo, una vez más, el hardware también importa.

About Josep Curto Díaz

Josep Curto es el director académico del Máster en Inteligencia de Negocio y Big Data (MiB) de la UOC. Así mismo es director de Delfos Research, empresa especializada en investigación de los mercados de Business Intelligence, Business Analytics y Big Data.
This entry was posted in Artificial Intelligence, Big Data, Deep learning, Machine learning and tagged , , . Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *