Más detalles de TPU, el cerebro de la Inteligencia artificial de Google

Publicado el

TPU

Google ha desvelado esta semana el hardware principal que hace posible que muchos de sus servicios puedan contar con funciones de aprendizaje automático. Se trata de Tensor Processing Unit (TPU), un procesador ASIC (circuito integrado especí­fico) desarrollado a lo largo de varios años, habiéndose comenzado su desarrollo inicialmente de modo experimental con el que se buscaba conocer hasta qué punto podrí­an alcanzar sus aceleradores personalizados para las aplicaciones de aprendizaje automático.

Google apuntó a que TPU se centra especí­ficamente para el aprendizaje automático y se encuentra optimizado para TensorFlow. Además, TPU cuenta con un rendimiento optimizado que le permite realizar un mayor nivel de operaciones pudiendo usar un número reducido de transistores en cada operación, pudiendo ser empleado en máquinas de aprendizaje automático más sofisticadas.

Google ya lleva más de un año usando procesadores TPU en sus centros de datos, usándose en servicios conocidos como Street View, búsquedas por voz, respuestas inteligentes en Inbox, entre otros. Hoy, gracias a recode, conocemos otros detalles del procesador TPU.

Entre otros aspectos, TPU puede ejecutar otros códigos de software de inteligencia artificial aunque no esté optimizado para ellos, ofrece la suficiente flexibilidad a los cambios de software, pueden unirse varios de estos procesadores en un mismo sistema para trabajar conjuntamente, como ya se hiciera en las competiciones con AlphaGo, además de tener su memoria integrada en el propio disipador y que su placa se conectará en las ranuras PCI-e de los servidores, motivo por el cual se encontrará más cerca de los discos duros que de las propias CPUs.

Google no ha contestado a preguntas relativas a si TPU dispone de pre-entrenamiento o donde son fabricados. En cualquier caso, ya sabemos que TPU es el cerebro de la inteligencia artificial de los servicios de Google.

Comparte en: