suit: Server-Cluster

Beitrag lesen

Hauptproblem ist immer die Latenz beim Zugriff auf entfernte Ressourcen. Mal ein extremes Beispiel: Müsste ein Prozessor ein Datum aus seinem virtualisiertem Cache von einem entfernten Computer von der Festplatte auslesen, dann hast du eben anstatt der weniger als 1 ns mehrere Millisekunden Zugriffszeit. Welche Gesamtverzögerung das bedeuten würde, kannst du selbst ausrechnen.

"Hauptproblem" kann man so nicht stehen lassen - auch der Code muss entsprechend optimiert werden.

Ein Code der auf einem schnellen -Prozessor läuft, läuft nicht notwendigerweise gleich schnell auf zwei halb so schnellen Prozessoren.

Es gibt Anwendungsfälle die sich ziemlich liniear skalieren lassen, es gibt Anwendungsfälle in denen es sogar langsamer wird, wenn man parallelisiert, weil das "aufteilen" der Operationen mehr Ressourcen erfordert als durch das getrennte Berechnen gewonnen wird.

Cluster machen oft nur dann sinn, wenn zwar die Berechnungszeit sinken soll, aber eine Abweichung von der Echtzeit kein Problem ist.