Die Google I/O 2024 hat erneut gezeigt, dass Google stark auf künstliche Intelligenz setzt. Neben zahlreichen Software-Ankündigungen standen auch Hardware-Innovationen und Infrastruktur-Verbesserungen im Fokus, die das Potenzial haben, die KI-Landschaft maßgeblich zu verändern.
Trillium: Die sechste Generation der TPU
Eine der bedeutendsten Ankündigungen war die Vorstellung von Trillium, der sechsten Generation von Googles Tensor Processing Units (TPUs). Diese speziell für KI-Workloads entwickelten Chips sollen eine beeindruckende Leistungssteigerung bieten. Mit einer bis zu 4,7-fach höheren Spitzenleistung und doppelter Speicherbandbreite im Vergleich zur Vorgängergeneration TPU v5e verspricht Trillium, anspruchsvolle KI-Modelle noch effizienter zu trainieren und auszuführen. Zudem soll Trillium um über 67% energieeffizienter sein, was einen wichtigen Beitrag zur Nachhaltigkeit leistet.
Axion: Googles erster ARM-basierter Chip
Ein weiterer Meilenstein ist der Axion-Prozessor, Googles erster selbst entwickelter Chip auf Basis des Neoverse-V2-Design der ARM-Architektur. Dieser Chip wurde speziell für den Einsatz in den Rechenzentren von Google Cloud entwickelt und soll dort für eine deutliche Leistungssteigerung sorgen. Laut Google bietet Axion bis zu 30% mehr Leistung als die schnellsten Allzweck-ARM-basierten Instanzen in der Cloud und ist bis zu 50% schneller und 60% energieeffizienter als vergleichbare x86-basierte Instanzen.
NVIDIA Blackwell: Ausbau der Partnerschaft für mehr KI-Power
Google Cloud baut seine Partnerschaft mit NVIDIA weiter aus, um die neue Blackwell-GPU-Architektur in ihre Cloud-Plattform zu integrieren. Blackwell verspricht eine deutliche Leistungssteigerung für KI- und High-Performance-Computing-Anwendungen und soll in den kommenden Jahren in verschiedenen Bereichen zum Einsatz kommen. Durch die Integration in Google Cloud können Kunden die Leistung von Blackwell für ihre eigenen KI-Projekte nutzen. Erste Benchmarks deuten auf eine bis zu 30-fache Leistungssteigerung beim Inferencing und bis zu 25-fache Verbesserung der Energieeffizienz für große Sprachmodelle (LLMs) im Vergleich zu herkömmlichen GPUs hin. Darüber hinaus ermöglicht die 5. Generation von NVLink eine Kommunikation von GPU zu GPU mit bis zu 1,8 TB/sec, was doppelt so schnell ist wie die bei Hopper eingesetzte 4. Generation.
KI-Hypercomputer und nachhaltige Infrastruktur
Google hat auf der I/O auch seine Fortschritte im Bereich der KI-Infrastruktur hervorgehoben. Der AI Hypercomputer, eine Supercomputing-Architektur für KI, kombiniert CPUs, GPUs und TPUs, um eine doppelt so hohe Effizienz wie herkömmliche Hardware und Chips zu erreichen. Diese beeindruckende Leistungssteigerung wird durch die Kombination verschiedener Faktoren ermöglicht:
- Hardware: Hochleistungsfähige CPUs, GPUs und TPUs bilden das Herzstück des AI Hypercomputers.
- Open-Source-Software: Durch die Nutzung von Open-Source-Frameworks wie SAX, TensorFlow, PyTorch und Kubernetes Engine wird die Entwicklung und Bereitstellung von KI-Anwendungen beschleunigt und vereinfacht.
- Flexible Nutzung: Dynamische Workload-Scheduler, CUDA und On-Demand-Spot-Instanzen ermöglichen eine effiziente Nutzung der Ressourcen und eine optimale Anpassung an die jeweiligen Anforderungen.
- Liquid Cooling: Diese innovative Kühltechnologie mit einer Kapazität von einem Gigawatt trägt zur hohen Energieeffizienz bei, indem sie die Wärmeentwicklung der leistungsstarken Hardware effektiv abführt. Allerdings ist zu beachten, dass diese Technologie einen hohen Wasserverbrauch mit sich bringt, ein Aspekt, der bei der Diskussion um Nachhaltigkeit nicht außer Acht gelassen werden sollte (Stichwort: Green IT).
Zu Infrastruktur gehört auch das Glasfasernetz von Google Cloud, welches mit einer Länge von 2 Millionen Meilen fast zehnmal größer ist als das des nächstgrößeren Cloud-Anbieters. Dies ermöglicht schnelle und zuverlässige Verbindungen für KI-Anwendungen und andere Cloud-Dienste.
Ausblick
Die auf der Google I/O 2024 vorgestellten Hardware-Innovationen und Infrastruktur-Verbesserungen zeigen, dass Google weiterhin stark in die Entwicklung von KI-spezifischer Hardware und Infrastruktur investiert. Mit Trillium, Axion, der erweiterten Partnerschaft mit NVIDIA für Blackwell und dem leistungsstarken AI Hypercomputer positioniert sich Google als führender Anbieter von KI-Infrastruktur und ermöglicht es Unternehmen und Entwicklern, die Vorteile der künstlichen Intelligenz in vollem Umfang zu nutzen. Es bleibt spannend zu beobachten, welche weiteren Entwicklungen in diesem Bereich in Zukunft folgen werden.