Geld zurück Garantie Erfahrungen & Bewertungen zu Hardwarewartung.com eine Marke von Change-IT
  • Google DeepMind verstärkt sein KI-Hardware-Team mit Maxence Ernoult – Neuromorphic Computing rückt stärker in den Fokus

Google DeepMind verstärkt sein KI-Hardware-Team mit Maxence Ernoult – Neuromorphic Computing rückt stärker in den Fokus

Google DeepMind setzt weiter auf den Ausbau seiner Hardwarekompetenzen in der KI. Mit der Verpflichtung von Maxence Ernoult, einem ausgewiesenen Experten im neuromorphic Computing, positioniert sich das Unternehmen für die nächste Entwicklungsstufe energieeffizienter und leistungsstarker Hardware-KI-Beschleuniger.

Maxence Ernoult, der zuvor mehr als zwei Jahre bei dem von Sam Altman unterstützten Start-up Rain AI tätig war, bringt umfangreiche Erfahrungen im Bereich des In-Memory Computing mit – einer Technologie, die darauf abzielt, die Arbeitsweise des menschlichen Gehirns nachzubilden. Neben seiner Tätigkeit bei Rain AI zählen auch Stationen bei IBM zu seinem beruflichen Werdegang, ergänzt durch ein Studium der neuromorphen Systeme an der renommierten Sorbonne Université. In einem enthusiastischen LinkedIn-Beitrag kündigte Ernoult seinen Einstieg als „Senior Research Engineer“ im AI-Hardware-Team von Google DeepMind an, was den ehrgeizigen Kurs des Unternehmens unterstreicht.

Neuromorphic Computing orientiert sich an Hirnstrukturen

Der Einsatz von neuromorphen Ansätzen ist nicht nur ein technologischer Fortschritt, sondern eröffnet auch neue Perspektiven zur Lösung aktueller Herausforderungen in der KI. Die Methode versucht, neuronale Strukturen und deren synaptische Prozesse in Hardware nachzubilden – ein Ansatz, der das Potenzial hat, den Energieverbrauch deutlich zu senken und gleichzeitig die Verarbeitungsgeschwindigkeit zu erhöhen. Gerade angesichts des rapiden Anstiegs des Leistungsbedarfs in modernen Rechenzentren sind solche Entwicklungen von großer wirtschaftlicher und ökologischer Relevanz.

Ein Beispiel findet ihr in folgender Darstellung:

Algorithms Neuromorphic Computing

 Erklärung zum Bild:

Grob gesagt zeigt das Bild einen kleinen „Baustein“ eines Neuronalen Netzwerks, das ähnlich wie bei klassischen Convolutional Neural Networks (CNNs) funktioniert. Man kann sich das folgendermaßen vorstellen:

  1. Eingangs-Bild wird in Teilstücke (Patches) zerlegt
    Ein kleines Bild wird in vier Bereiche („Patches“) aufgeteilt. Jeder Bereich besteht aus 2×2 Pixeln. Die Farben (Grau/Violett) zeigen, welche Pixel zusammengehören.

  2. Faltungs-Schritt (Conv)
    Ein „Faltfilter“ (in der Regel ein kleines 2×2-Muster aus Gewichten) wird auf jeden Patch angewendet. Der Filter nimmt die Pixel im Patch und berechnet daraus einen neuen Wert pro Patch – man kann sich das wie eine spezielle Mustererkennung in jedem Teilbereich vorstellen.

  3. Pooling-Schritt (Average Pooling)
    Danach wird das Ergebnis pro Patch noch vereinfacht (durchschnittlich zusammengefasst). Das heißt, mehrere Werte werden zu einem einzigen kleineren Wert verrechnet. Damit verringern wir die Datenmenge und fassen ähnliche Bereiche zusammen.

  4. Flatten
    Alle diese „zusammengefassten“ Werte werden dann in einer langen Liste (Vektor) angeordnet, damit eine anschließende voll verbundene Schicht (Fully-Connected Layer) sie einfacher verarbeiten kann.

  5. Voll verbundene Schicht (Fully-Connected Layer)
    In dieser Schicht ist jedes Element aus unserer Liste mit jedem Neuron hier verbunden. Anhand dieser Verbindungen berechnet das Netzwerk am Ende seine Ausgaben (z.B. für eine Klassifizierung in 2 Klassen: „ja/nein“ oder „Katze/Hund“).

  6. Warum neuromorph?
    Neuromorphe Hardware versucht, all diese Rechenschritte – Faltung, Pooling, Zusammenrechnen – möglichst energiesparend in elektronischen Schaltkreisen abzubilden, oft in Form von „spikenden“ Neuronen oder anderen biologisch inspirierten Ansätzen. So kann man CNN-ähnliche Abläufe effizient in Hardware umsetzen.

Kurz gesagt: Das Bild zeigt, wie Daten aus einem Bild in kleinen Abschnitten (Patches) verarbeitet, zusammengefasst (gepoolt) und schließlich über eine Schicht voll vernetzter Neuronen klassifiziert werden – und das alles im Stil eines neuromorphen Systems.

Hardwareentwicklung wird per KI vorangetrieben

Parallel zu diesen Bemühungen investiert Google DeepMind auch stark in die Weiterentwicklung seiner bestehenden Hardwarearchitektur. Unter der Leitung von Forschern wie Albert Cohen und Olivier Temam – dem ehemaligen Mitentwickler der Tensor Processing Units (TPUs) – wird intensiv an neuartigen Systemen gearbeitet. Die TPUs, die nicht nur das Training, sondern auch die Inferenzprozesse in KI-Modellen unterstützen, spielen bereits eine zentrale Rolle in Googles Cloud-Services. Gleichzeitig treibt das AlphaChip-Projekt, bei dem künstliche Intelligenz zur Optimierung des kompletten Chip-Design-Zyklus eingesetzt wird, die Automatisierung und Effizienz im Hardware-Entwicklungsprozess weiter voran.

AlphaChip steht exemplarisch für den ehrgeizigen Kurs von DeepMind: Es soll sämtliche Phasen des Chip-Designs revolutionieren – von der Architektur über Logik-Synthese bis hin zur Fertigung. Obgleich derzeit noch unklar ist, inwieweit neuromorphe Techniken in diese Initiative integriert werden, deuten die Rekrutierungen und jüngsten Forschungsergebnisse darauf hin, dass Google DeepMind plant, Brücken zwischen konventionellen und neuartigen Ansätzen zu schlagen. Experten verweisen auf die Notwendigkeit, den Design-Prozess für KI-Hardware grundlegend neu zu denken, um die stetig wachsenden Anforderungen an Energieeffizienz und Rechenleistung zu erfüllen.

Neuromorphic Computing orientiert sich an Hirnstrukturen

Der Einsatz von neuromorphen Ansätzen ist nicht nur ein technologischer Fortschritt, sondern eröffnet auch neue Perspektiven zur Lösung aktueller Herausforderungen in der KI. Die Methode versucht, neuronale Strukturen und deren synaptische Prozesse in Hardware nachzubilden – ein Ansatz, der das Potenzial hat, den Energieverbrauch deutlich zu senken und gleichzeitig die Verarbeitungsgeschwindigkeit zu erhöhen. Gerade angesichts des rapiden Anstiegs des Leistungsbedarfs in modernen Rechenzentren sind solche Entwicklungen von großer wirtschaftlicher und ökologischer Relevanz.

Hardwareentwicklung wird per KI vorangetrieben

Parallel zu diesen Bemühungen investiert Google DeepMind auch stark in die Weiterentwicklung seiner bestehenden Hardwarearchitektur. Unter der Leitung von Forschern wie Albert Cohen und Olivier Temam – dem ehemaligen Mitentwickler der Tensor Processing Units (TPUs) – wird intensiv an neuartigen Systemen gearbeitet. Die TPUs, die nicht nur das Training, sondern auch die Inferenzprozesse in KI-Modellen unterstützen, spielen bereits eine zentrale Rolle in Googles Cloud-Services. Gleichzeitig treibt das AlphaChip-Projekt, bei dem künstliche Intelligenz zur Optimierung des kompletten Chip-Design-Zyklus eingesetzt wird, die Automatisierung und Effizienz im Hardware-Entwicklungsprozess weiter voran.

AlphaChip steht exemplarisch für den ehrgeizigen Kurs von DeepMind: Es soll sämtliche Phasen des Chip-Designs revolutionieren – von der Architektur über Logik-Synthese bis hin zur Fertigung. Obgleich derzeit noch unklar ist, inwieweit neuromorphe Techniken in diese Initiative integriert werden, deuten die Rekrutierungen und jüngsten Forschungsergebnisse darauf hin, dass Google DeepMind plant, Brücken zwischen konventionellen und neuartigen Ansätzen zu schlagen. Experten verweisen auf die Notwendigkeit, den Design-Prozess für KI-Hardware grundlegend neu zu denken, um die stetig wachsenden Anforderungen an Energieeffizienz und Rechenleistung zu erfüllen.

Erfahren Sie mehr

Ihr Wartungsspezialist im DataCenter

Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.

Erfahren Sie mehr

Leistungssteigerung und mehr Nachhaltigkeit

Die strategische Personalentscheidung, einen erfahrenen Neuromorphic-Computing-Experten ins Team zu holen, ist ein starkes Indiz für den intensiven Wettbewerb in der globalen Tech-Branche. Unternehmen wie Google DeepMind wollen nicht nur ihre eigenen Technologien weiterentwickeln, sondern auch den Standard für zukünftige KI-Lösungen setzen. Dabei spielt neben der reinen Leistungssteigerung auch die Nachhaltigkeit eine immer größere Rolle – ein Aspekt, der besonders in Zeiten steigender Energiepreise und wachsender Umweltbedenken zunehmend an Bedeutung gewinnt.

Weiterentwicklung der KI durch Innovationen bei Hardware und Software

Die nächste Ära der KI-Entwicklung wird maßgeblich von einer engen Verzahnung aus Softwareinnovation und Hardware-Exzellenz geprägt sein. Mit neuen Konzepten, die neuromorphe Ansätze und konventionelle Halbleitertechnologien miteinander verbinden, bereitet sich Google DeepMind darauf vor, die künftigen Herausforderungen des Machine-Learning-Betriebs nicht nur effizient, sondern auch nachhaltiger zu meistern.

Was denkt Hardwarewartung 24?

Veränderungen in der Unternehmensstrategie beginnen bei guten Firmen häufig mit dem Personal. Daher gehen wir davon aus, dass die Einstellung von Maxence Ernoult ein klares Signal von Large Language Models (LLMs) hin zu World Models ist – auch wenn das auf den ersten Blick nicht offensichtlich erscheint. Warum wir das so sehen, möchten wir kurz erläutern.

Das Spezialgebiet von Maxence Ernoult ist Neuromorphic Computing. Diese Technologie orientiert sich an den Funktionsweisen des menschlichen Gehirns und versucht, Computerstrukturen zu schaffen, die diesem möglichst ähnlich sind. Betrachtet man die Entwicklungen in der Neurowissenschaft in den letzten Jahren, zeigt sich ein deutlicher Trend zur sogenannten Thousand Brains Theory. Diese Theorie widerspricht dem hierarchischen Ansatz weitgehend oder ist zumindest in der Lage, deutlich mehr Probleme zu lösen als der bisherige Ansatz. Demnach werden Objekte in kortikalen Säulen verarbeitet, und ein Kontext entsteht durch die Nutzung von Referenzmodellen – ein zentrales Prinzip des Lernens. Darüber hinaus macht die Theorie deutlich, dass Bewegung und ein physischer Körper als Referenzmodell fast unverzichtbar sind, um Lernen in ähnlicher Weise wie Menschen zu ermöglichen.

Das Lernen selbst basiert auf einer permanenten Simulation des Gehirns darüber, was passieren wird, wenn wir etwas tun. Drehen wir beispielsweise unseren Kopf nach links und befinden uns in einem vertrauten Raum, antizipiert das Gehirn das erwartete visuelle Bild. Sollte der tatsächliche Sinneseindruck abweichen – etwa weil plötzlich eine Kaffeetasse auf dem Tisch steht, die zuvor nicht dort war – stimmen die kortikalen Säulen nicht mehr überein, und es werden Spikes in den Neuronen ausgelöst, die ins Sehzentrum gelangen. Dort werden jene kortikalen Säulen aktiviert, welche dieses neue Objekt repräsentieren. Sobald das Objekt erkannt ist, aktualisiert das Gehirn sein Referenzmodell des Raumes. Die Neuronen lösen keine weiteren Spikes mehr aus, und das Gehirn hat gelernt, dass sich nun eine Kaffeetasse auf dem Wohnzimmertisch befindet – ausgelöst durch die Drehung des Kopfes nach links.

Gemäß der Thousand Brains Theory ist dieser kontinuierliche Prozess, bei dem alle Sinneseindrücke (oder „Sensoren“) mit den neuronalen Aktivitäten abgeglichen und in Objekte in den kortikalen Säulen übersetzt werden, die Grundlage für Lernen. Daraus lässt sich ableiten, dass ein Unternehmen wie DeepMind in Robotik investieren muss, um AGI (Artificial General Intelligence) erreichen zu können: Es braucht einen physischen Referenzrahmen, der Bewegung ermöglicht. Gleichzeitig gilt es, die Funktionsweise von Neuronen durch Spiking Neural Networks zu verstehen und die entstehenden Spikes in Objekte zu überführen, die in kortikalen Säulen organisiert werden. Nachdem DeepMind bereits seine Robotik-Abteilung ausgebaut hat, stellt Maxence Ernoult somit einen weiteren Baustein dar, um künstliche Neuronen besser zu verstehen und weiterzuentwickeln. Letztlich fehlt nur noch ein echter Neurowissenschaftler wie Jeff Hawkins oder einer seiner Studenten, um das Team zu komplettieren.

Erfahren Sie mehr

Ihr Wartungsspezialist für alle großen Hardware Hersteller

Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.

Erfahren Sie mehr

Weitere Artikel

Von |2025-03-07T10:34:30+00:006.3.2025|

Über den Autor:

Yusuf Sar ist der Gründer von hardwarewartung.com und Change-IT. Er ist IT-Spezialist mit langjähriger Erfahrung im Netzwerk, Security, Data Center und IT-Infrastruktur Bereich. Sehen sie einfach das Linkedin Profil: https://www.linkedin.com/pub/yusuf-sar/0/351/621
Nach oben