Die Laufzeit vom Client zum Server ist doch rauszukriegen oder!? Also der Client schickt was zum Server und ermittelt die Zeit bis zum Eintreffen der Response.
Wirklich? Ich glaube nicht. Beide Zeiten sind ja unterschiedlich.
Also angenommen die Zeit einer Anfrage beträgt zwischen Client und Server 50ms. Und der Client läuft der Serverzeit um 500ms nach. Dann schickt der Client etwas um 1542130669.100 los ( beim Server ist es zu diesem Zeitpunkt 1542130669.600 ), der Server erhält nach seiner Uhr also die Anfrage um 1542130669.650 und die Anfrage hat für den Server 550ms gedauert.
Man könnte wohl nur etwas vom Server wieder zum Client zurück schicken und dann annehmen, dass die Zeit einer Anfrage gerade die Hälfte der vergangenen Zeit auf dem Client ist. Aber ob das immer korrekt ist wage ich auch zu bezweifeln. Zudem weiß der Client dann immer noch nicht wie groß die Differenz zu der Serverzeit ist.
Gruß
Jo