Estas son las nuevas TPUs de Google

tpu

TPU son las siglas de Tensor Processing Units, las Unidades de Procesamiento que Google usa para poder realizar tareas relacionadas con el aprendizaje de máquinas, incluyendo entrenamiento e inferencia.

Ayer presentaron la segunda generación, disponibles a través de Google Compute Engine, y ya han publicado un artículo con todos los detalles de esta nueva tecnología.

Google ha mostrado durante los últimos años un avance impresionante en este sector. Gracias a las redes neuronales hemos avanzado bastante en varios puntos:

Google traductor: la calidad de las traducciones ha mejorado bastante gracias al entrenamiento recibido con millones de frases en decenas de idiomas.

Búsqueda de Google: El buscador se ha hecho más inteligente, capaz de detectar el contenido de mejor calidad y eliminar el spam y contenido duplicado y copiado de otras fuentes.

Google Fotos: Es capaz de identificar objetos y rostros, agrupando contenido en función de lo que hay en cada imagen.

Juegos: El programa de AlphaGo de DeepMind ha sido capaz de derrotar a Lee Sedol, uno de los mejores jugadores del mundo de Go, dejando claro que la inteligencia artificial cada vez es menos previsible.

Para realizar estos trabajos es necesario invertir en enormes cantidades de computación, tanto para entrenar los modelos de aprendizaje como para ejecutarlos una vez entrenados, y para ello han diseñado, construido y desplegado una familia de unidades de procesamiento de tensores, o TPUs, que soportan cantidades cada vez mayores de computación de aprendizaje de máquinas, primero internamente y ahora externamente.

tpus

El primer TPU que presentaron fue diseñado para ejecutar modelos de aprendizaje automático de forma rápida y eficiente, como traducir un conjunto de frases o elegir el siguiente paso en Go, pero el sistema nuevo es capaz de eliminar cuellos de botella y maximizar el rendimiento general, con posibilidad de realizar varias tareas al mismo tiempo.

Estos nuevos TPUs llegan ahora a Google Compute Engine como Cloud TPUs, y pueden conectarse a máquinas virtuales de todo tipo y mezclarse con otros tipos de hardware, incluyendo las CPUs Skylake y las GPU NVIDIA. Podemos programar estos TPUs con TensorFlow, el framework de aprendizaje de máquina abierta más popular en GitHub, y están introduciendo APIs de alto nivel para ayudar a que cualquier persona pueda usarlos.

El objetivo es ofrecer al mundo una potencia de cálculo acelerada a pedido, sin gastos de capital iniciales, ayudando así a que diferentes empresas puedan construir los mejores sistemas de aprendizaje de máquina usando el poder de los Cloud TPU de Google.

Los interesados en el tema pueden registrarse en esta página, informando las características de su sistema para encontrar la solución ideal.

Juan Diego Polo

Estudió Ingeniería de Telecomunicaciones en la UPC (Barcelona), trabajando como ingeniero, profesor y analista desde 1998 hasta 2005, cuando decidió emprender creando wwwhatsnew.com.