OpenAI, MRC-Protokoll

OpenAI präsentiert MRC-Protokoll für 100.000-GPU-Cluster

10.05.2026 - 15:19:11 | boerse-global.de

Ein Konsortium stellt MRC vor, um Datenstaus in riesigen GPU-Clustern zu vermeiden. AMD, Nvidia und Microsoft treiben den offenen Standard voran.

OpenAI präsentiert MRC-Protokoll für 100.000-GPU-Cluster - Foto: über boerse-global.de
OpenAI präsentiert MRC-Protokoll für 100.000-GPU-Cluster - Foto: über boerse-global.de

Ein Konsortium um OpenAI stellt ein neues Netzwerkprotokoll vor, das Engpässe beim Training riesiger KI-Modelle beseitigen soll.

Der Multipath Reliable Connection (MRC)-Protokoll wurde am 8. Mai 2026 vorgestellt und adressiert ein wachsendes Problem: Wenn KI-Cluster auf 100.000 oder mehr GPUs skalieren, stoßen herkömmliche Netzwerke an ihre Grenzen. Die Initiative, der auch AMD, Broadcom, Intel, Microsoft und Nvidia angehören, verteilt Datenpakete nicht mehr über einen einzigen Pfad, sondern über Hunderte parallele Wege. Das verhindert die gefürchteten „Hot Spots" – überlastete Switches, die den gesamten Trainingsprozess ausbremsen.

Anzeige

Während Unternehmen massiv in die Rechenpower für KI investieren, rücken auch die damit verbundenen Sicherheitsrisiken und neuen rechtlichen Anforderungen stärker in den Fokus. Dieser kostenlose Report klärt auf, welche digitalen Bedrohungen und gesetzlichen Pflichten Sie als Unternehmer jetzt kennen müssen. Kostenloses E-Book: Cyber Security Trends 2024 herunterladen

Die Spezifikation wurde über das Open Compute Project veröffentlicht. Das Signal ist klar: Der Markt soll einen einheitlichen Standard erhalten, statt sich in proprietären Insellösungen zu verlieren.

„Scaling Wall" – Wenn mehr GPUs nicht mehr helfen

Bisherige Ethernet- und InfiniBand-Konfigurationen stoßen bei modernen KI-Modellen an ihre physikalischen Grenzen. Das MRC-Protokoll erlaubt den Anschluss von über 100.000 GPUs mit nur zwei Ebenen von Ethernet-Switches. Das vereinfacht die Rechenzentrumsarchitektur erheblich und steigert gleichzeitig die Zuverlässigkeit.

Nvidia hat das Protokoll bereits in seine Spectrum-X-Ethernet-Plattform integriert. Branchenanalysten sehen darin eine Grundvoraussetzung für die nächste Generation von Large Language Models (LLMs), die noch deutlich größere Rechencluster benötigen werden.

Die Beteiligung konkurrierender Hardware-Hersteller wie AMD und Intel sowie Cloud-Anbieter wie Microsoft soll verhindern, dass die globale KI-Infrastruktur durch Fragmentierung ausgebremst wird.

AMD bringt KI-Karte für den Standardserver

Nur einen Tag später, am 9. Mai 2026, legte AMD mit der Instinct MI350P nach. Die neue PCIe-Karte basiert auf der CDNA-4-Architektur und bringt KI-Leistung in Standard-Serverumgebungen – ohne Spezialinfrastruktur wie OAM-Sockel oder Flüssigkeitskühlung.

Die technischen Daten können sich sehen lassen: 128 Compute Units, 8.192 Streamprozessoren und eine Rechenleistung von 4,6 PFLOPS für MXFP4-Operationen. Mit 144 GB HBM3E-Speicher und einer Bandbreite von 4 TB/s ist die Karte speziell für Inferenz-Aufgaben in luftgekühlten Servern konzipiert.

Die MI350P hat eine Leistungsaufnahme von 600 Watt, kann aber auf 450 Watt gedrosselt werden – mit nur 10 bis 15 Prozent Leistungseinbußen. Große Hersteller wie Dell, HPE, Lenovo, Cisco und Supermicro haben die Karte bereits in ihre Produktlinien integriert. Der Dell PowerEdge XE7740 und der HPE ProLiant DL380a Gen12 sind nur zwei Beispiele.

AMD bereitet zudem die MI500-Serie für die zweite Jahreshälfte 2027 vor, die fortschrittliche 2.5D- und 3D-Verpackungstechnologien nutzen soll.

Nvidia investiert über 40 Milliarden Dollar

Nvidia hat seine finanzielle Beteiligung am KI-Ökosystem drastisch ausgeweitet. Bereits in diesem Jahr hat der Chip-Hersteller über 40 Milliarden Dollar in Beteiligungen gesteckt. Der größte Brocken: eine 30-Milliarden-Dollar-Investition in OpenAI, die die Partnerschaft zwischen dem führenden GPU-Hersteller und dem bekanntesten KI-Forschungslabor weiter festigt.

Manche Marktbeobachter kritisieren diese Strategie als zirkulär: Nvidia investiert in seine eigenen Kunden – darunter OpenAI, CoreWeave und IREN – und sichert sich so die Nachfrage nach seinen Chips. Nvidia-CEO Jensen Huang kontert, man unterstütze das gesamte KI-Ökosystem, statt einzelne Gewinner auszuwählen.

Weitere Investitionen in diesem Jahr: 3,2 Milliarden Dollar in Corning, 2,1 Milliarden in IREN sowie jeweils 2 Milliarden in Marvell und Nebius.

Am 7. Mai 2026 gaben Nvidia und IREN zudem eine Partnerschaft zur Bereitstellung von bis zu 5 GW KI-Infrastruktur bekannt. Der Deal umfasst einen fünfjährigen Managed-GPU-Cloud-Vertrag im Wert von 3,4 Milliarden Dollar. Als Gegenleistung erhielt Nvidia Optionsscheine für 30 Millionen IREN-Aktien. Der Sweetwater-Campus in Texas dient als Referenzprojekt für Nvidias DSX-Infrastruktur.

Anthropic setzt auf SpaceX – Baidu spart Kosten

Der Wettlauf um Rechenkapazität beschränkt sich nicht auf Nvidia und OpenAI. Anthropic schloss am 8. Mai 2026 einen bedeutenden Vertrag mit SpaceX ab. Der Deal verschafft dem KI-Unternehmen Zugang zu über 300 MW Rechenzentrumskapazität am Standort Colossus 1 – das entspricht mehr als 220.000 Nvidia-GPUs, die innerhalb eines Monats verfügbar sein sollen. Anthropic prüft zudem die Möglichkeit orbitaler KI-Berechnung mit SpaceX und unterhält weitere massive Infrastruktur-Deals mit Amazon und Google, die bis 2027 jeweils 5 GW erreichen könnten.

Während westliche Unternehmen auf massive physische Infrastruktur setzen, geht Baidu einen anderen Weg. Der chinesische Suchmaschinenbetreiber veröffentlichte am 9. Mai 2026 sein Ernie 5.1-KI-Modell. Die Besonderheit: Die Vortrainingskosten betragen nur 6 Prozent dessen, was Branchenkollegen ausgeben. Baidu erreichte dies durch eine Reduzierung der Gesamtparameterzahl auf ein Drittel der Vorgängerversion, während die Fähigkeiten in Logik und kreativem Schreiben verbessert wurden. Das Modell belegt derzeit einen Platz unter den Top Fünf der globalen Branchen-Benchmarks – die beste Platzierung, die je ein chinesisches Modell erreicht hat.

Hürden bei Nvidias Rubin-Plattform

Am 9. Mai 2026 kursierten zudem Gerüchte über Designprobleme bei Nvidias kommenden Rubin- und Rubin-Ultra-Plattformen. Demnach könnten die HBM4-Geschwindigkeiten aufgrund von Schwierigkeiten mit Zulieferern wie Micron und SK Hynix zurückgefahren werden. Konkret soll der Rubin Ultra seine HBM4E-Stapel von 16-Hi auf 12-Hi reduzieren müssen, was die Gesamtkapazität von 1 TB auf 768 GB senken würde. Diese Anpassungen zeigen die technischen Hürden, die mit dem derzeitigen Tempo des Hardware-Fortschritts einhergehen.

Zwei Strategien für die KI-Zukunft

Die Entwicklungen Anfang Mai 2026 zeichnen ein klares Bild: Die KI-Branche verfolgt einen Zwei-Spur-Ansatz – massive Kapitalinvestitionen in Rohkapazität bei gleichzeitiger Jagd nach technischer Effizienz.

Das MRC-Protokoll ist die Antwort auf die „Scaling Wall": irgendwann bringen zusätzliche GPUs keinen linearen Leistungszuwachs mehr, weil das Netzwerk zum Flaschenhals wird. Mit der Standardisierung dieser Ebene senkt das Konsortium die Hürde für die nächste Generation von Super-Clustern.

Gleichzeitig zeigt die AMD MI350P, dass der Markt reift: Nicht jeder KI-Workload braucht einen flüssigkeitsgekühlten High-Density-OAM-Cluster. Die Nachfrage nach „KI in der Box" – Lösungen, die in bestehende Unternehmensrechenzentren passen – wächst. Diese Spezialisierung spiegelt sich auch bei Baidus Ernie 5.1 wider, das auf Parametereffizienz statt rohe Größe setzt.

Anzeige

Parallel zum technischen Wettrüsten bei der Hardware müssen Unternehmen auch die regulatorischen Rahmenbedingungen wie den EU AI Act im Blick behalten. Ein kompakter Überblick hilft Ihnen dabei, alle Anforderungen, Fristen und Risikoklassen der neuen KI-Verordnung rechtzeitig zu verstehen. EU AI Act in 5 Schritten verstehen – Jetzt kostenlosen Leitfaden sichern

Ausblick: Gigawatt-Cluster und Effizienz-Rennen

Bis 2027 wird der Fokus auf dem massiven Ausbau stromhungriger Rechenzentren liegen. Mit Anthropic, IREN und anderen, die auf Multi-Gigawatt-Kapazitäten zielen, bleiben Energie- und Kühlungsbedarf die primären Engpässe. Nvidias Rubin-Plattform und AMDs MI500-Serie werden die nächsten Meilensteine im Hardware-Wettrüsten sein – auch wenn die Gerüchte um Rubin zeigen, dass die Industrie möglicherweise an die Grenzen der aktuellen HBM4-Technologie stößt.

Die Implementierung des MRC-Protokolls wird bei den kommenden Trainingszyklen großer Modelle genau beobachtet werden. Sollte es gelingen, Überlastungen in 100.000-GPU-Clustern zu vermeiden, wäre der Weg für noch größere Deployments mit über 500.000 Einheiten geebnet. Doch wie Baidu zeigt: Der wahre Gewinner im KI-Rennen könnte nicht der sein, der die meisten GPUs besitzt – sondern der, der die leistungsfähigsten Modelle zu den niedrigsten Kosten trainiert.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
de | wissenschaft | 69300948 |