Ist meine Rechnung so richtig?
1 MBit/s
= 1.000.000 Bit/s
Nicht unbedingt, entweder man rechnet im normalen Dezimalsystem (Schema 1K=10^3=1000) oder man benutzt die im Computerbereich üblichen Zweierpotenzen (Schema 1K=2^10=1024).
= 125.000 Byte/s
Das kommt darauf an, wieviele Bit man für die Übertragung eines Bytes benötigt und ob dieses mit einberechnet wird. Bei Übertragung über die serielle RS232-Schnittstelle nimmt man zum Beispiel in aller Regel je ein Start- und ein Stopbit zu jeweils acht Datenbits; damit hättest Du bei 1.000.000 Bit/s 100.000 Byte/s.
Gruß,
soenk.e