Die steigende Nachfrage nach KI-Workloads treibt den Wettbewerb bei Netzwerkchips an

Die steigende Nachfrage nach KI-Workloads treibt den Wettbewerb bei Netzwerkchips an

21.07.2023
Autor: HostZealot Team
2 min.
217

Netzwerkunternehmen konkurrieren um die Entwicklung von Chips, die KI- und maschinelle Lernaufgaben bewältigen können. Die ASICs Silicon One G200 und G202 von Cisco zum Beispiel fordern die Angebote von Broadcom, NVIDIA und Marvell heraus. Die Nachfrage nach KI-Technologien wächst rasant: Die weltweiten Ausgaben für KI werden Prognosen zufolge im Jahr 2023 154 Milliarden US-Dollar und bis 2026 mindestens 300 Milliarden US-Dollar erreichen. Darüber hinaus wird laut einem Bericht der 650 Group bis 2027 fast jeder fünfte von Rechenzentren gekaufte Ethernet-Switch-Port für KI/ML und beschleunigtes Rechnen verwendet werden.

Wie Cisco Networking Chips die Workload-Zeit verbessern

Die Silicon One G200 und G202 ASICs von Cisco erledigen KI- und ML-Aufgaben mit 40 % weniger Switches bei 51,2 TBit/s. Sie ermöglichen einen 32K 400G GPUs AI/ML-Cluster in einem zweischichtigen Netzwerk mit 50 % weniger optischen Komponenten und 33 % weniger Netzwerkschichten. Diese Chips bieten einheitliches Routing und Switching und damit eine konvergente Architektur für Routing-, Switching- und KI/ML-Netzwerke. Durch den fortschrittlichen Lastausgleich und die extrem niedrige Latenz eignen sie sich hervorragend für die Verarbeitung von KI/ML-Workloads. Verbesserte Ethernet-Funktionen verbessern die Leistung weiter und reduzieren die Zeit für die Auftragsabwicklung um das 1,57-fache. Laut Cisco bieten der G200 und der G202 außerdem Lastausgleich, bessere Fehlerisolierung und einen vollständig gemeinsam genutzten Puffer, um die optische Leistung für KI/ML-Workloads zu unterstützen.

Chip-Hersteller stellen sich den Herausforderungen der KI

Laut Chopra führen Netzwerkhersteller Netzwerkchips mit höherer Bandbreite und Radix ein, die es ihnen ermöglichen, KI-Aufgaben zu bewältigen, indem sie mit einer größeren Anzahl von Geräten verbunden werden. Außerdem erleichtern sie die nahtlose Kommunikation zwischen GPUs, beseitigen Engpässe und verbessern die Leistung von KI/ML-Workloads.

Verwandte Artikel