NVIDIA investiert Milliarden in Marvell für KI-Dominanz
13.04.2026 - 16:39:50 | boerse-global.deNVIDIA festigt seine Vorherrschaft in der KI-Infrastruktur mit einer Zwei-Milliarden-Euro-Investition in den Chiphersteller Marvell. Die im März 2026 bekanntgegebene Partnerschaft zielt darauf ab, durch eine neue Plattform namens „NVLink Fusion“ die gesamte Hardware-Architektur von Rechenzentren zu kontrollieren. Der Schritt kommt zu einem kritischen Zeitpunkt: Eine schwere Chip-Knappheit treibt die Cloud-Preise für KI-Rechenleistung auf Rekordhöhen.
Während Giganten wie NVIDIA die Hardware-Basis für KI-Systeme schaffen, müssen Unternehmen bereits jetzt die rechtlichen Leitplanken dieser Technologie beachten. Dieser kostenlose Leitfaden bietet Ihnen einen kompakten Überblick über alle Anforderungen, Pflichten und Fristen des EU AI Acts. EU AI Act in 5 Schritten verstehen: Fristen, Pflichten und Risikoklassen kompakt erklärt
Strategische Allianz für die Netzwerk-Schicht
Die milliardenschwere Beteiligung, die den NVIDIA-Aktienkurs um rund neun Prozent springen ließ, hat ein klares Ziel: NVIDIA will Marvells Expertise in Silizium-Photonik und Hochgeschwindigkeits-Netzwerken tief in sein eigenes Ökosystem integrieren. Die daraus entstehende „NVLink Fusion“-Plattform soll den Datenaustausch zwischen Tausenden von GPUs revolutionieren und so die Effizienz von KI-Modellen steigern.
Für Marvell ist der Deal ein Wachstumsmotor. Das Unternehmen verzeichnete bereits ein Plus von 73 Prozent im Rechenzentrumsgeschäft und erreichte im April 2026 einen historischen Aktienhöchststand. Analysten der Investmentbank Barclays prognostizieren dem optischen Segment des Unternehmens ein Wachstum von fast 90 Prozent in zwei Jahren. Der Grund: Die vier größten Internetkonzerne der Welt werden in diesem Jahr voraussichtlich gemeinsam 650 Milliarden Euro investieren – ein Großteil davon fließt in KI-Infrastruktur.
Die Strategie erinnert an die Übernahme von Mellanox im Jahr 2019, die heute ein Grundpfeiler von NIVIDIAs Marktmacht ist. Durch die Kontrolle der Netzwerk- und Verbindungstechnologie baut der Konzern einen „Full-Stack“-Graben, der es für Entwickler immer unattraktiver macht, auf alternative Hardware von AMD oder Intel zu wechseln.
Chip-Knappheit treibt Cloud-Preise in die Höhe
Während NVIDIA sein Ökosystem ausbaut, sind seine neuesten Chips so knapp wie seit fümf Jahren nicht mehr. Der „Compute Price Index“ für April 2026 zeigt: Die Mietpreise für NVIDIA-GPUs in der Cloud sind innerhalb von zwei Monaten um 48 Prozent gestiegen. Die neuesten Blackwell-Chips kosten im Schnitt stolze 4,08 Euro pro Stunde.
Die Knappheit trifft die KI-Branche unterschiedlich. Während OpenAI sein API-Angebot seit dem Vorjahr verdoppeln konnte, leiden andere Anbieter wie Anthropic unter Ausfällen. Marktprognosen deuten darauf hin, dass dieses Ungleichgewicht zwischen Angebot und Nachfrage bis mindestens 2029 anhalten wird.
Günstigere Alternativen gibt es vor allem im Low-Cost-Segment. Auf dezentralen Plattformen wie Salad ist eine RTX 5090 bereits für 0,27 Euro pro Stunde zu haben. Ältere Architekturen wie die NVIDIA A40 starten bei 0,32 Euro. Sie werden oft für KI-Trainings genutzt, die viel VRAM, aber nicht die maximale Leistung der Blackwell-Serie benötigen.
Höhere Kosten für Verbraucher-Hardware
Auch am Einzelhandelsregal wird es teurer. Der Rollout der Blackwell-Architektur in der RTX-50-Serie für Consumer und Workstations erfolgt zu höheren Einstiegspreisen. Grund sind steigende Kosten für GDDR6- und GDDR7-Speicher, wie NVIDIA seinen Board-Partnern ASUS, MSI und Gigabyte mitteilte.
In Europa müssen sich Kunden auf Preisaufschläge von 15 bis 20 Prozent bei Grafikkarten mit mehr als 16 GB VRAM einstellen. Die Hersteller konzentrieren sich daher vermehrt auf 8-GB-Modelle wie die RTX 5060 Ti, um eine günstige Einstiegsschwelle zu halten. Die am 5. März eingeführte RTX 5070 startete bei 549 US-Dollar und bietet in etwa die Leistung einer 4070 Super, bringt aber die neue Upscaling-Technologie DLSS 4 mit.
Die Preisspirale zeigt sich besonders im Luxus-Segment. Vorbestellungen für das ASUS-ROG-Flaggschiff Zephyrus DUO mit RTX-5090-Mobil-GPU und dualen OLED-Displays liegen bei 12.999 US-Dollar. Selbst Mittelklasse-Gaming-Laptops wie der TUF A14 starten bei 3.199 US-Dollar. Als Gegenmaßnahme präsentierte NVIDIA auf der GTC 2026 „Neural Texture Compression“. Diese KI-Technologie reduziert den VRAM-Verbrauch in bestimmten Anwendungen von 6,5 GB auf unter 1 GB.
Mit dem rasanten Einzug von KI in den Unternehmensalltag wachsen auch die rechtlichen Risiken bei der Datenverarbeitung durch externe Dienstleister. Sichern Sie sich dieses kostenlose E-Book mit Vorlagen und Checklisten, um Ihre Auftragsdatenverarbeitung jetzt rechtssicher zu gestalten. Endlich DSGVO-konforme Auftragsdatenverarbeitung – ohne teuren Anwalt
Marktmacht und der Druck durch Eigenentwicklungen
Trotz der hohen Kosten hält NVIDIA im April 2026 einen geschätzten Marktanteil von 90 Prozent im KI-Infrastrukturgeschäft. Sein größter Wettbewerbsvorteil ist nicht mehr nur die Hardware, sondern das Software-Ökosystem CUDA mit über 100 Millionen Installationen. Dieser Netzwerkeffekt macht einen Wechsel zu Konkurrenzplattformen technisch und finanziell unattraktiv.
Doch die „Bear Case“-Szenarien für NVIDIA mehren sich. Große Cloud-Anbieter und KI-Entwickler setzen zunehmend auf eigene Chips (Custom ASICs), um unabhängiger zu werden. Anthropic nutzt bereits Alphabets TPUs und Amazons Trainium-Chips. Zudem könnte die globale Investitionswelle in KI-Infrastruktur Ende 2026 mit einem Volumen von rund 700 Milliarden Euro ihren Höhepunkt erreichen. Ein Plateau der Ausgaben danach würde den Wachstumsdruck auf NVIDIA erhöhen.
Der Konzern reagiert, indem er seine eigenen Prozesse automatisiert. Auf der GTC zeigte NVIDIA, dass es Chip-Design-Aufgaben, die früher 80 Personenmonate erforderten, jetzt über Nacht mit einem einzigen GPU und Reinforcement-Learning-Tools erledigt. Dies beschleunigt den jährlichen Release-Zyklus für neue Architekturen.
Ausblick: Fokus auf Echtzeit-KI
Die strategische Ausrichtung deutet auf einen Wandel hin: Mit der kommenden „Vera Rubin“-Plattform und der Integration von Groq-3-LPX-Beschleunigern rückt Echtzeit-KI in den Fokus. Die aktuellen Blackwell-Chips werden zwar in Volumen produziert, bleiben aber noch mehrere Quartale knapp.
Die Zwei-Milliarden-Allianz mit Marvell gilt als Gradmesser für die nächste Phase des KI-Ausbaus. Während Amazon seine Investitionen um 52 Prozent auf 200 Milliarden Euro steigern will und andere Hyperscaler nachziehen, wird die Nachfrage nach Hochgeschwindigkeits-Netzwerken weiter explodieren. Trotz des Wettbewerbs durch AMDs ROCm-Software und Custom Silicon festigt NVIDIA mit der Kontrolle über die Netzwerk-Schicht seine zentrale Rolle in der globalen Datenzentrums-Ökonomie – mindestens bis 2027.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.
