Cloud Next ‘26: Alles über die neuen Google TPUs der achten Generation
12:25, 28.04.2026
Auf der Technologiekonferenz Cloud Next ‘26 hat Google die achte Generation seiner eigenen Tensor Processing Units (TPUs) vorgestellt. Die neuen Chips wurden in enger Zusammenarbeit mit Google DeepMind entwickelt und sind auf maximale Energieeffizienz ausgerichtet.
Über TPU 8t und TPU 8i
In dieser Generation setzt Google auf eine spezialisierte Komponentenstruktur und präsentierte zwei Prozessorversionen — TPU 8t (Training) und TPU 8i (Inference).
- TPU 8t (Training): Dieser Chip wurde für das Training großer neuronaler Netze entwickelt. Die Architektur ermöglicht die Kombination von bis zu 9.600 Chips in einem einzigen Supermodul und bietet Zugriff auf eine enorme Speicherkapazität von 2 PB mit HBM-Bandbreite.
- TPU 8i (Inference): Dieser Chip ist für die Ausführung fertiger Algorithmen (Inferenz) optimiert und bietet eine um 80% höhere Leistung im Vergleich zu den Vorgängermodellen. Dadurch gewährleistet der Chip eine Latenzzeit von nahezu Null und eine schnelle Reaktion von KI-Diensten.
Fortschritte bei der Energieeffizienz
Die neue Chipgeneration übertrifft frühere Lösungen wie Ironwood an Leistung, benötigt jedoch auch mehr Strom von den Rechenzentren. Um die Chips energieeffizienter zu machen, hat Google ein adaptives Energiemanagementsystem in den TPU 8t und 8i implementiert. Dies ermöglicht es den Chips, den Ressourcenverbrauch in Echtzeit an die Komplexität der Aufgabe anzupassen.
Partnerschaft mit NVIDIA
Google setzt die Zusammenarbeit mit den Marktführern im GPU-Bereich fort. Das Unternehmen bestätigte, dass es seinen Kunden als einer der ersten Zugang zu den neuesten NVIDIA Vera Rubin NVL72-Systemen gewähren wird.