TPU: los chips de Google hasta 30 veces más potente que un servidor normal

Hace unos años Google se enfrentó a un problema relacionado con su asistente de voz. Si todos sus usuarios lo usaran durante tres minutos al día, habrían tenido que duplicar el número de servidores para gestionar todo el sistema de machine learning que se utiliza para transformar la voz en texto. En lugar de comprar nuevos servidores, la compañía decidió crear un hardware dedicado especialmente a estas tareas.

El resultado de esta decisión fue la llegada del Tensor Processing Unit (TPU). Google está tan orgullosa de este chip que publicó ayer un artículo detallando las ventajas de rendimiento frente a procesadores y tarjetas gráficas normales que se utilizan para ese tipo de funciones. En concreto, compararon tanto el rendimiento bruto de ambas configuraciones como el rendimiento por vatio.

En esos resultados, se puede ver que la TPU es entre 15 y 30 veces más potente en tareas de machine-learning y redes neuronales artificiales que un procesador Intel Xeon para servidores basado en Haswell y que una gráfica NVIDIA K80. También hay que tener en cuenta que estos dos componentes tienen ya algo más de dos años encima. A nivel de rendimiento por vatio, la TPU era entre 25 y 80 veces más eficiente para estos cálculos.

Noticia relacionada: ¿Cómo se fabrica un procesador?

Más eficiencia gracias a su diseño ASIC

Tener unos chips tan eficientes significa mucho para Google. Se pueden ahorrar mucho dinero en servidores, en mantenimiento, en espacio, y en electricidad. Mientras que a nosotros no nos suele importar una diferencia de un 5% en consumo o rendimiento, en la escala de empresas de como Google eso puede significar ahorrarse 50.000 servidores de entre un millón. Los TPU se están usando en la actualidad también para identificar imágenes y para traducir con Google Translate.

Esta ganancia de eficiencia es muy importante en la actualidad, ya que los límites físicos del silicio están a la vuelta de la esquina en los procesadores, y Google compara sus TPUs con chips de 28 nanómetros. Llegará un momento en no mucho más de cinco años en el que no se podrá reducir más el tamaño de los transistores con el procedimiento actual. Las arquitecturas actuales se pueden explotar aún más, como están haciendo fabricantes como Intel, así como el software se puede optimizar aún más, como están haciendo desde Google con los TPU.

Los TPU son chips diseñados para realizar tareas específicas (llamados ASIC, o aplicación-specific integrated circuit). El set de instrucciones está “grabado” en el propio chip, siendo esta la razón por la que es mucho más eficiente en estas tareas que otras combinaciones con propósitos más generales. Por suerte, los chips son flexibles y permiten modificaciones en el diseño si se introduce alguna mejora en el proceso.

 

Fuente: PCWorld | adslzone