Definition des AI UBB-Boards
Das AI UBB (Universal Base Board) ist eine High-End-Backplane oder Hauptplatine, die für die Stromversorgung, Signalübertragung, Verwaltung und Hochgeschwindigkeits-Verbindungskanäle für KI-Beschleunigerkarten wie OAM-Module, GPUs und FPGAs entwickelt wurde. Es dient in der Regel als zentrale Verbindungsplattform in KI-Servern oder KI-Beschleunigergehäusen wie NVIDIA HGX, Baidu Kunlun und Alibaba Hanguang und ist damit eine wichtige Hardware-Grundlage für moderne KI-Rechenzentren.
Hauptfunktionen der AI UBB-Karte
- Ermöglicht eine Hochgeschwindigkeitsverbindung zwischen mehreren KI-Beschleunigerkarten und der Host-CPU sowie zwischen Beschleunigerkarten und unterstützt Protokolle wie PCIe, NVLink und CXL.
- Bietet einheitliche Stromverteilung, Kühlschnittstellen, Verwaltungssignalverteilung und Funktionen zur Zustandsüberwachung.
- Unterstützt verschiedene Arten von KI-Beschleunigermodulen und bietet hohe Kompatibilität und flexible Skalierbarkeit.
- Gewährleistet Datenpfade mit hoher Bandbreite und geringer Latenz für einen effizienten Datenaustausch und eine effiziente Datenübertragung.
Hauptmerkmale der AI UBB-Leiterplattenherstellung
- Ultrahohe Schichtanzahl (≥20 Schichten), große Abmessungen (in der Regel über 400 × 500 mm) und eine Plattendicke von ≥3 mm.
- Verwendet extrem verlustarme, hochwertige Materialien, um die Anforderungen an die Hochfrequenz-Signalübertragung zu erfüllen.
- Verwendet fortschrittliche Verfahren wie Back Drilling, harzgefüllte Durchkontaktierungen und POFV mit einer Mindestbohrung von 0,2 mm und einem Aspektverhältnis von ≥15.
- Hohe Leiterbahndichte bis zu 0,09/0,09 mm, wobei die Präzision der Impedanzsteuerung teilweise ±8 % erreicht.
- Unterstützt Hochleistungs- und Hot-Swap-fähige Module mit starken Kühlungs- und Energieverwaltungsfunktionen.
- Hochgradig kundenspezifisches Design mit herausragender Zuverlässigkeit und Stabilität, geeignet für den Einsatz in großen KI-Clustern.
Hauptanwendungen der KI-UBB-Platine
- OAM, Open Accelerator Module, Architektur-KI-Server, die als Brücke zwischen OAM-Modulen und der Hauptplatine/CPU dienen.
- Kern-Backplane für KI-Serverplattformen wie NVIDIA HGX, die die Verbindung für mehrere GPUs/KI-Beschleunigerkarten bereitstellt.
- Hochleistungs-KI-Server mit Flüssigkeits- oder Luftkühlung, die eine modulare Erweiterung und Verwaltung von KI-Clustern mit hoher Dichte und hoher Rechenleistung ermöglichen.
- Einsatz in Supercomputing-Zentren, Rechenzentren und großen KI-Cloud-Computing-Plattformen für High-End-KI-Anwendungen.
Unterschiede zu herkömmlichen Backplanes
- UBB-Boards wurden speziell für das KI-Beschleuniger-Ökosystem entwickelt und unterstützen eine höhere Bandbreite (wie PCIe Gen4/Gen5, NVLink, CXL) und höhere Leistungsanforderungen.
- Größerer Fokus auf flexible Erweiterung und vielfältige Kompatibilität zwischen KI-Modulen, um der rasanten Entwicklung der KI-Technologie und -Hardware Rechnung zu tragen.
- Bietet eine höhere Signalintegrität und Systemzuverlässigkeit und ist damit eine unverzichtbare Komponente für große KI-Computing-Plattformen.