Google ha revelado nuevos detalles sobre sus supercomputadoras, utilizadas para entrenar sus modelos de inteligencia artificial, afirmando que son más rápidas y eficientes en energía que las de Nvidia. Google utiliza su propio chip personalizado llamado Tensor Processing Unit (TPU) para más del 90% de su trabajo de entrenamiento de inteligencia artificial. El TPU de Google está ahora en su cuarta generación y la compañía ha publicado un artículo científico detallando cómo ha conectado más de 4.000 chips en una supercomputadora utilizando sus propios interruptores ópticos personalizados. Google dijo que su supercomputadora facilita la reconfiguración de conexiones entre chips sobre la marcha, lo que ayuda a evitar problemas y optimiza el rendimiento. Según Google, sus chips son hasta 1,7 veces más rápidos y 1,9 veces más eficientes en energía que el sistema basado en el chip A100 de Nvidia. Google sugiere que podría estar trabajando en un nuevo TPU que competiría con el Nvidia H100.
Mira el artículo original en inglés aquí o también traducido al español aquí
