Die Entwicklung des Rechenzentrums: Leistung, Kühlung und Nachhaltigkeit bis 2030 | HiRef

.

Liquid Cooling

Die Entwicklung des Rechenzentrums: Leistung, Kühlung und Nachhaltigkeit bis 2030

  • Technologie

Jahr: 2025

Die physische Infrastruktur von Rechenzentren wird bis 2030 durch Innovationen in der Energieerzeugung, -verteilung und -thermik maßgeblich geprägt sein.

Wachstum und steigende Leistungsdichte

Laut der Analyse „Cloud and Data Center“ (Omdia, 2025) bleibt die IT-Infrastruktur der größte Kostenfaktor in Rechenzentren. Der wachsende Bedarf an Rechenleistung erfordert konstante Investitionen in neue Hardware- und Energiemanagementtechnologien. Die Rechenleistungsdichte pro Rack wird durch KI-Computing auf nie dagewesene Werte getrieben, was traditionelle Strom- und Kühlsysteme veraltet erscheinen lässt.

KI-Computing-Projekte im Rack-Maßstab treiben die Leistungsdichte pro Rack auf bislang unerreichte Werte und machen herkömmliche Stromversorgungs- und Kühltechnologien obsolet.

Die kontinuierlich steigenden Anforderungen an Rechenleistung und Speicher verändern die Rack-Systeme grundlegend (Daten in laufender Aktualisierung):

  • 120 kW im Jahr 2025
  • 240 kW im Jahr 2026
  • bis zu 600 kW im Jahr 2027

Kühlung wird zur strategischen Priorität

Kühlung ist nicht mehr nur eine technische Frage, sondern ein strategischer Hebel. Bis 2030 wird die elektrische Energieverteilung im Rechenzentrum neu konzipiert, mit einer Anhebung der Spannung von derzeit 400 Volt auf 800-Volt-Systeme.

Die Aufrechterhaltung stabiler Temperaturen ist entscheidend, um die Betriebskontinuität und die Datensicherheit zu gewährleisten. Aus diesem Grund wird die Innovation im Bereich der Flüssigkeitskühlung parallel zur zunehmenden Verbreitung neuer Rechenzentren stark wachsen.

Laut der Analyse Cloud and Data Center von Omdia (2025) können KI-basierte Kühlsysteme – im Gegensatz zu herkömmlichen Klimatisierungslösungen – intelligente Algorithmen einsetzen, die die Kühlstrategie dynamisch anhand von Echtzeitdaten wie Arbeitslast, Umgebungstemperatur und Betriebsbedingungen anpassen. Dadurch lassen sich Effizienzsteigerungen erzielen und der Energieverbrauch deutlich senken.

Direct-to-Chip: die Schlüsseltechnologie

Kurzfristig wird die Direct-to-Chip-Liquid-Cooling-Technologie die wichtigste Lösung im Bereich der Flüssigkeitskühlung darstellen.

Bei diesem System wird die Wärme direkt auf Chipebene über eine sogenannte Cold Plate abgeführt, durch die das Kühlmedium PG25 zirkuliert. Es sind zwei Betriebsarten vorgesehen: ein einphasiger oder ein zweiphasiger Betrieb.

Eine alternative Lösung ist die Immersion Liquid Cooling, bei der der gesamte Server in eine dielektrische Flüssigkeit eingetaucht wird. Auch diese Technologie kann – je nach Art der Wärmeabfuhr – im einphasigen oder zweiphasigen Modus betrieben werden.

Die Flüssigkeitskühlung, insbesondere Direct-to-Chip, wird sich voraussichtlich aufgrund dreier Schlüsselfaktoren durchsetzen:

  • Hohe thermische Leitfähigkeit,
  • Eignung für Hochdichte-Computing-Umgebungen,
  • Senkung der Betriebskosten.

Dennoch stellt sie keine alleinige und endgültige Lösung dar.

Hybride Lösungen: die Verbindung von Luft und Wasser

Flüssigkeitskühlsysteme gewährleisten eine höhere thermische Effizienz und einen geringeren Energieverbrauch, selbst bei immer leistungsfähigeren Mikroprozessoren. Sie beseitigen das Problem jedoch nicht vollständig: Rund 10–20 % der Wärme werden weiterhin an die Luft abgegeben.

Aus diesem Grund sind hybride Lösungen erforderlich, die Luft- und Flüssigkeitskühlung für Direct-to-Chip-Server koordiniert miteinander kombinieren.

Ziel ist es, die Synergie zwischen Luft und Wasser optimal zu nutzen, Ineffizienzen auf ein Minimum zu reduzieren und die maximale Betriebskontinuität von Rechenzentren sicherzustellen.

Technologien für die thermische Effizienz im Rechenzentrum

Coolant Distribution Units (CDUs) sind zentrale Komponenten in Flüssigkeitskühlsystemen. Sie gewährleisten die optimale Verteilung und Zirkulation des Kühlmediums und sorgen dafür, dass die Komponenten innerhalb ihrer idealen Temperaturbereiche betrieben werden.

HiRef CDU in line
Coolant Distribution Units HiRef

Parallel zu den CDUs bietet HiRef ergänzende Lösungen für Rechenzentren an:

  • Rear Door Units: aktive oder passive Klimatisierungssysteme, die die von den Servern erzeugte Wärme direkt an der Rückseite der Racks abführen;
    • Dry Coolers: externe Einheiten, die mit wasserbasierten internen Kondensationssystemen kombiniert werden können, um Free Cooling optimal zu nutzen, und die für den Betrieb mit Wasser-Glykol-Gemischen von bis zu 60 % ausgelegt sind.

    Ein weiteres Schlüsselelement ist HiNode, ein Management- und Überwachungssystem, das die Überwachung und Steuerung aller Komponenten des Kühlsystems ermöglicht und so einen effizienten und integrierten Betrieb sicherstellt.

      Wärmerückgewinnungssysteme – die die Abwärme von Rechenzentren in eine Wärmequelle für Gebäude umwandeln – werden zunehmend an Bedeutung gewinnen und immer stärker verbreitet sein.

      Green Data Center und Energy Loop District

      HiRef promeut depuis longtemps l’adoption de solutions de récupération telles que des pompes à chaleur haute et très haute température, qui optimisent la consommation énergétique des data centers et les transforment en véritables fournisseurs d’énergie thermique pour des districts industriels et/ou urbains.

      C’est le concept d’Energy Loop District: créer un système énergétique circulaire et durable, dans lequel la chaleur n’est pas perdue, mais réintégrée dans le cycle énergétique.

      Ces solutions améliorent non seulement la durabilité environnementale, mais génèrent également une nouvelle valeur énergétique et renforcent le concept de Green Data Center.