Datenübertragungsrate
NellyF
- webserver
1 Bla0 seth_not@home0 NellyF0 seth- sonstiges
0 Bla
Hi,
ich habe irgendwie ein Denkproblem gerade.
Wieviele MB/s kann eine 100 Mbit/s Leitung übertragen?
Anders gefragt: Wieviele MegaByte gehen pro Sekunde durch die Leitung?
Ich möchte gerne berechnen, wie lang ein Download von einer 1.5 GB-Datei dauert.
Was was bedeutet weiss ich. Aber wie genau rechne ich das? :D
Wieviele MB/s kann eine 100-Mbit/s-Leitung übertragen?
Über den Daumen kannst du mit 10 Bit pro Byte rechnen, teilst du also die MBit/s durch zehn, bekommst du MByte/s.
gudn tach!
Wieviele MB/s kann eine 100 Mbit/s Leitung übertragen?
Mbit = megabit = 1 000 000 bit
1 byte = 8 bit (nicht immer aber meistens, mehr dazu in der wikipedia unter dem lemma "byte")
100 000 000/8 = 12 500 000
also sind 100 000 000 bit das gleiche wie 12 500 000 byte
12 500 000 byte = 12,5 MB
anderer rechenweg:
1 bit = 1/8 byte, also ist
100 Mbit = 100/8 MB = 12,5 MB
Anders gefragt: Wieviele MegaByte gehen pro Sekunde durch die Leitung?
12,5 MB maximal.
Ich möchte gerne berechnen, wie lang ein Download von einer 1.5 GB-Datei dauert.
das kommt jetzt darauf an, wie praxisnah du rechnen willst.
im idealen fall wuerde man es so rechnen:
du willst also wissen, mit welcher zahl an sekunden du den eben berechneten wert multiplizieren musst, damit 1,5 GB = 1500 MB herauskommen.
zu loesen ist also 12,5x = 1500
auf beiden seiten durch 12,5 dividiert, fuehrt zum ergebnis.
wenn jedoch mit 1,5 GB eigentlich 1,5 GiB (siehe wikipedia-artikel) gemeint ist, dann musst du beruecksichtigen, dass
1 GiB = 1024*1024*1024 byte und nicht 1000*1000*1000 byte ist.
eigentlich muesste man aber jetzt noch verschiedenes beruecksichtigen, was die datenuebertragung verlangsamen wuerde.
prost
seth
ich kann mir noch nicht ganz vorstellen, dass bei einer 100 Mbit Leitung ein 1.4 Gigabyte-Download nur zwischen 100 und 200 Sekunden dauern soll.
Das übersteigt meine logische Vorstellungskraft :D
gudn tach!
ich kann mir noch nicht ganz vorstellen, dass bei einer 100 Mbit Leitung ein 1.4 Gigabyte-Download nur zwischen 100 und 200 Sekunden dauern soll.
Das übersteigt meine logische Vorstellungskraft :D
naja, es war ja auch nur die halbe wahrheit. die daten, die uebertragen werden, bestehen ja noch aus zusaetzlichen informationen ueber diese daten selbst (so wie zu einem brief noch ein umschlag mit adresse und absender dazukommt). siehe z.b. http://de.wikipedia.org/wiki/Ethernet#Datenframe
zudem kann die datenpaketgroesse schwanken.
dann kommt noch dazu, wie gut und lang das kabel ist, d.h. wieviele datenpakete verloren gehen.
ich hab mal was von einer daumenregel gelesen, dass man ca. 20% der geschwindigkeit getrost abziehen koennte und immer noch ein maximum der geschwindigkeit erhalte. keine ahnung, ob das stimmt. falls ja, waeren es halt nicht 12,5 MB/s, sondern ca. 10 MB/s (das wuerde sich dann auch mit Bla's lustiger abschaetzung decken). aber wesentlich langsamer als eben ausgerechnet waere es damit auch nicht.
hier im forum sind ein paar leute mit erfahrung diesbzgl.; ich weiss auch nicht, warum noch keiner was dazu gesagt hat. vielleicht steht's schon ein paar mal im archiv.
prost
seth
ich hab mal was von einer daumenregel gelesen, dass man ca. 20% der geschwindigkeit getrost abziehen koennte und immer noch ein maximum der geschwindigkeit erhalte. keine ahnung, ob das stimmt.
Ob es nun exakt 20% sind, kann man getrost dahingestellt lassen, denn das hängt, du hast es schon angemerkt, von verschiedensten Parametern ab, von den Daten selbst über das benutzte Protokoll bis hin zur Leitungsqualität.
Der Punkt ist in jedem Fall, dass bei üblicher Nutzung niemals die von dir vorgerechnete Bruttodatenrate zu erreichen ist.
falls ja, waeren es halt nicht 12,5 MB/s, sondern ca. 10 MB/s (das wuerde sich dann auch mit Blas lustiger abschaetzung decken).
Da sieht man mal, dass auf den ersten Blick nur lustige Abschätzungen deutlich praktikabler sind als theoretische Kalkulationen - getreu dem Motto "Wer misst, misst Mist" :->