Google spaltet KI-Chips: Neue TPU-Generation für Training und Antworten
20.04.2026 - 13:00:25 | boerse-global.de
Der Tech-Riese plant, seine Tensor Processing Units (TPUs) künftig in zwei spezialisierte Zweige zu teilen: einen für das Training riesiger Modelle und einen für effiziente Antworten im Betrieb. Diese strategische Wende soll heute offiziell angekündigt werden.
Hinter der Neuausrichtung steht die TPUv8-Generation, die die aktuelle TPUv7-Serie ablösen wird. Sie besteht aus zwei eigenständigen Chips: Der TPUv8t (Codenamen "Sunfish") ist als Hochleistungsbeschleuniger für das Training neuer KI-Modelle konzipiert. Sein Gegenstück, der TPUv8i ("Zebrafish"), wurde dagegen ausschließlich für kostengünstiges und stromsparendes Inferencing entwickelt – also den Betrieb trainierter Modelle für Millionen Nutzeranfragen.
Während Google seine Hardware-Architektur radikal umbaut, fragen sich viele Anleger, welche Unternehmen die Grundsäulen dieses rasant wachsenden KI-Marktes bilden. Dieser kostenlose Spezialreport enthüllt die drei aktuell vielversprechendsten Aktien, um gezielt von der technologischen Revolution zu profitieren. KI-Aktien 2024: Die 3 Gewinner jetzt kostenlos entdecken
Zwei Chips, zwei Partner: Broadcom und MediaTek
Für diese Spezialisierung setzt Google auf unterschiedliche Partner. Während der Trainings-Chip "Sunfish" weiterhin in Zusammenarbeit mit Broadcom entsteht, hat Google für den effizienten Inferencing-Chip "Zebrafish" offenbar MediaTek mit ins Boot geholt. Diese Aufteilung nutzt die spezifischen Stärken der Partner: Broadcoms Expertise für Hochgeschwindigkeits-Verbindungen und MediaTeks Know-how in stromsparender Massenproduktion, etwa für Mobilgeräte.
Die Trennung der Workloads ist eine direkte Antwort auf die veränderten wirtschaftlichen Realitäten der KI-Branche. Im Jahr 2026 entfallen bereits zwei Drittel aller KI-Rechenleistung auf das Inferencing – also das Beantworten von Nutzeranfragen. Dieser Anteil hat sich seit 2023 verdoppelt. Die ständige, rund-um-die-Uhr-Belastung im Betrieb macht bis zu 90 Prozent der Gesamtkosten eines KI-Systems aus. Ein spezialisierter Chip wie der "Zebrafish" verspricht hier massive Einsparungen.
Marvell als dritter Partner im Gespräch
Die Diversifizierung der Lieferkette geht noch weiter. Wie in den letzten 72 Stunden bekannt wurde, führt Google offenbar auch Gespräche mit Marvell Technology über die gemeinsam Entwicklung spezialisierter KI-Komponenten. Im Fokus stehen ein spezieller Speicher-Prozessor und eine neue Architektur für inferenzintensive Aufgaben.
Eine Partnerschaft mit Marvell würde Google helfen, einen kritischen Engpass zu adressieren: die effiziente Handhabung von Daten in modernen Mixture-of-Experts-Architekturen (MoE). Der Markt für kundenspezifische Chips (ASICs) soll 2026 um 45 Prozent wachsen – deutlich schneller als der für universelle GPUs. Die Nachricht von den Gesprächen trieb den Marvell-Aktienkurs zuletzt um 8 bis 10 Prozent nach oben.
Die treibende Kraft: Autonome KI-Agenten
Was treibt den explodierenden Bedarf an Inferencing-Leistung? Ein Hauptgrund ist der Aufstieg sogenannter agentischer KI. Diese Systeme können autonom schlussfolgern und mehrstufige Aufgaben ausführen, anstatt nur einfache Chat-Antworten zu liefern. Diese kontinuierlichen Denk- und Handlungszyklen stellen Rechenzentren vor eine völlig neue, unvorhersehbare Dauerlast. Googles spezialisierte Inferencing-Architektur ist die Antwort auf den Bedarf an einer "Always-On"-KI für Milliarden Echtzeitanfragen.
Integration in die "AI Hypercomputer"-Architektur
Die neuen TPU-Chips arbeiten nicht allein. Sie sind Teil von Googles umfassender "AI Hypercomputer"-Architektur. In diesem System werden sie mit den hauseigenen, ARM-basierten Axion-CPUs kombiniert, die seit 2024 im Einsatz sind. Diese Prozessoren übernehmen die Orchestrierung: Sie bereiten Daten vor, managen das System und entlasten so die TPUs für reine Rechenarbeit. Google zufolge bieten Axion-Instanzen bis zu 50 Prozent mehr Leistung und 60 Prozent höhere Energieeffizienz als moderne x86-Alternativen.
Parallel dazu setzt Google weiter auf Intels Xeon-6-Prozessoren für latenzsensitive Aufgaben. Eine im April 2026 bekanntgegebene mehrjährige Zusammenarbeit unterstreicht die Bedeutung dieser "ausgewogenen Systeme". Laut Amin Vahdat, Googles Technologiechef für KI-Infrastruktur, bleiben CPUs die Grundlage moderner KI-Systeme – vom Training bis zum finalen Einsatz.
Der Umbau der globalen digitalen Infrastruktur durch KI und Robotik wird von Experten bereits als die größte industrielle Umwälzung seit Jahrzehnten bezeichnet. Erfahren Sie in diesem aktuellen Report von finanztrends.de, welche Unternehmen diese neue Ära anführen und wo das große Kapital derzeit hinfließt. Gratis-Report: Gewinner der neuen Industrierevolution sichern
Ausblick: Das Ende der Allzweck-Chips
Mit der TPUv8 setzt Google einen klaren Trend zur vertikalen Integration fort. Eigene Chip-Entwicklung ermöglicht eine Leistungsoptimierung, die mit Standard-Hardware kaum zu erreichen ist. Die Vorgängergeneration TPUv7 ("Ironwood") brachte bereits einen zehnfachen Leistungssprung gegenüber der TPUv5p. Für die TPUv8 werden nun weitere zweistellige Steigerungen erwartet.
Große KI-Firmen wie Anthropic haben sich bereits vertraglich für den Bezug mehrerer Gigawatt an Rechenleistung der neuen TPU-Generation bis 2027 verpflichtet. Die Spaltung in Trainings- und Inferencing-Chips markiert das Ende der "One-Chip-Fits-All"-Ära in der KI-Infrastruktur. Während der Markt für KI-Beschleuniger bis 2033 auf voraussichtlich 604 Milliarden Dollar wachsen soll, positioniert sich Google mit seiner spezialisierten Silizium-Strategie, um die wirtschaftlichen Grundlagen des KI-Zeitalters mitzugestalten – unabhängiger von externen Anbietern und optimiert für die reale Welt der KI-Anwendungen.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.
