28. Januar 2026

Mehr Rechenleistung ersetzt keine Systemarchitektur

Von Uwe Jesgarz, Geschäftsführer Kithara Software
 

IPv6

Wenn technische Systeme an ihre Grenzen kommen, ist der Reflex meist derselbe: Man greift zu schnellerer Hardware. Mehr Kerne, höhere Taktfrequenzen, stärkere Beschleuniger. Die Entscheidung wirkt rational, messbar und ist vergleichsweise einfach umzusetzen. 

 

In vielen Fällen ist sie dennoch falsch. 

 

Nicht, weil Rechenleistung unwichtig wäre, sondern weil sie häufig als Ersatz für etwas verwendet wird, das sich nicht nachrüsten lässt: eine klare und systematisch entworfene Struktur.

Leistung ist eine Ressource – Architektur eine Entscheidung

Rechenleistung ist eine Ressource, vergleichbar mit der Größe des Arbeitsspeichers oder der Festplatte. Die gewählte Systemarchitektur ist jedoch eine wesentliche Entscheidung für das Funktionieren des Systems. Ressourcen lassen sich skalieren, Architektur nicht – zumindest nicht nachträglich und nicht ohne Konsequenzen. Genau hier liegt ein weit verbreiteter Denkfehler: Die Annahme, dass mehr Leistung strukturelle Defizite ausgleichen könne. Das funktioniert kurzfristig, aber langfristig verschärft es das Problem. Denn Rechenleistung behebt keine fehlende Ordnung – diese wird durch mehr Rechenleistung eher verdeckt.

Unkontrollierte Nebenläufigkeit bleibt unkontrolliert

Moderne Systeme sind nahezu immer nebenläufig. Mehrere Aufgaben laufen gleichzeitig, greifen auf gemeinsame Zustände zu, reagieren auf Ereignisse, deren zeitliche Abfolge nicht deterministisch ist. Diese Nebenläufigkeit entsteht nicht durch Hardware, sondern durch Designentscheidungen. Dort wo diese nicht bewusst getroffen wurden, sondern sich zufällig ergeben haben, besteht keine Kontrolle mehr.

Fehlt eine explizite zeitliche Struktur aller Abläufe, dann bleibt das Verhalten des Systems implizit, also vage und undefiniert. Abhängigkeiten sind nicht festgelegt, Zustände nicht eindeutig definiert, Übergänge nicht kontrolliert. Die Schlussfolgerung lautet: Unkontrollierte Nebenläufigkeit bleibt unkontrolliert – unabhängig davon, wie schnell die Hardware ist.

Mehr Leistung sorgt lediglich dafür, dass das System diese Unordnung schneller durchläuft.

Warum dieser Denkfehler heute besonders häufig ist

Der Irrtum wird durch moderne Plattformen begünstigt. Immer leistungsfähigere Multicore-Prozessoren, Cloud-Infrastrukturen und skalierbare Laufzeitumgebungen vermitteln den Eindruck, Leistung sei praktisch unbegrenzt verfügbar. Wenn ein System an Grenzen stößt, wird skaliert – vertikal oder horizontal. Das ist bequem – und es verschiebt die eigentliche Auseinandersetzung.

Je verfügbarer Rechenleistung wird, desto seltener wird hinterfragt, warum ein System sie überhaupt benötigt. Strukturfragen werden vertagt, weil Symptome zunächst verschwinden. Das Problem ist jedoch nicht gelöst, es ist nur weniger sichtbar.

Wenn Fehler seltener werden, aber teurer

Ein strukturell ungeordnetes System zeigt seine Schwächen nicht sofort. Oft wirkt es über lange Zeit stabil, insbesondere unter Laborbedingungen oder moderater Last. Die Probleme treten später auf:

  • unter spezifischer Last
  • in seltenen Zustandskombinationen
  • im Feld, nicht im Test

Dann sind sie:

  • schwer reproduzierbar
  • schwer erklärbar
  • teuer zu analysieren

Das System erscheint zuverlässig … bis es das nicht mehr ist.

Geschwindigkeit erhöht Durchsatz, nicht Kontrolle

Ein verbreitetes Missverständnis besteht darin, Geschwindigkeit mit Kontrolle zu verwechseln. Rechenleistung und Geschwindigkeit erhöhen den Durchsatz. Sie erhöhen jedoch nicht die Vorhersagbarkeit.

Ein System wird durch mehr Leistung nicht deterministischer. Es wird lediglich schneller unbestimmt. Zeitliche Fehler verschwinden nicht, sie werden statistisch seltener und dadurch gefährlicher. Wenn dann ein Problem auftritt, geht der Aufwand zur Fehlersuche leicht schon mal in Mann-Wochen oder gar -Monate. Ein schnelles System ohne zeitliche Ordnung ist daher kein leistungsfähiges System, sondern ein riskantes.

Die eigentliche Frage, die selten gestellt wird

In vielen Projekten wird intensiv darüber diskutiert, wie viel Rechenleistung benötigt wird. Deutlich seltener wird gefragt, welche zeitlichen Garantien das System erfüllen muss. Dabei ist genau das die entscheidende Frage:

  • Was darf wann passieren?
  • Welche Zustände sind gültig – und wie lange?
  • Welche Ereignisse haben Vorrang?
  • Aus welchen Subsystemen besteht das gesamte Projekt?
  • Wie interagieren diese miteinander?

Diese Fragen lassen sich nicht mit schnellerer Hardware beantworten und auch nicht mit Compiler-Optimierungen. Die Architektur des Projektes beginnt dort, wo man sich festlegt.

Ein anderer Maßstab für Fortschritt

Technischer Fortschritt wird oft mit Steigerung gleichgesetzt: schneller, größer, paralleler. Für komplexe Systeme ist das ein unzureichender Maßstab. Fortschrittliche Systeme sollen statt dessen:

  • erklärbar bleiben
  • reproduzierbar reagieren
  • unter Last vorhersehbar sein

Wer Probleme mit Rechenleistung erschlägt, entscheidet sich gegen Verständnis. Und ohne Verständnis gibt es keine Kontrolle.