Zeichenkodierung
bearbeitet von plhi @Rolf B
> fromCharCode(n) mit n<256 wird von JS NICHT als Byte interpretiert. Sondern immer als Zeichen, gespeichert in 16 Bit.
Es sind nur 8 Bit (1 byte), nicht 16
~~~js
var s = String.fromCharCode(195,164,228);
console.log(s, s.length);
// siehst Du
// ää 3
~~~
.length ist also die Anzahl der bytes die dabei rauskommen. Ob JS intern da mit 2 byte je byte operiertwird(UTF16) ist mir vollkommen egal. Ich habe hier Binaries im MB Bereich und die sind absolut bytegenau.
MfG
> fromCharCode(n) mit n<256 wird von JS NICHT als Byte interpretiert. Sondern immer als Zeichen, gespeichert in 16 Bit.
Es sind nur 8 Bit (1 byte), nicht 16
~~~js
var s = String.fromCharCode(195,164,228);
console.log(s, s.length);
// siehst Du
// ää 3
~~~
.length ist also die Anzahl der bytes die dabei rauskommen. Ob JS intern da mit 2 byte je byte operiert
MfG
Zeichenkodierung
bearbeitet von plhi @Rolf B
> fromCharCode(n) mit n<256 wird von JS NICHT als Byte interpretiert. Sondern immer als Zeichen, gespeichert in 16 Bit.
Es sind nur 8 Bit (1 byte), nicht 16
~~~js
var s = String.fromCharCode(195,164,228);
console.log(s, s.length);
// siehst Du
// ää 3
~~~
.length ist also die Anzahl der bytes die dabei rauskommen. Ob JS intern da mit 2 byte je byte operiert wird ist mir vollkommen egal. Ich habe hier Binaries im MB Bereich und die sind absolut bytegenau.
MfG
> fromCharCode(n) mit n<256 wird von JS NICHT als Byte interpretiert. Sondern immer als Zeichen, gespeichert in 16 Bit.
Es sind nur 8 Bit (1 byte), nicht 16
~~~js
var s = String.fromCharCode(195,164,228);
console.log(s, s.length);
// siehst Du
// ää 3
~~~
.length ist also die Anzahl der bytes die dabei rauskommen. Ob JS intern da mit 2 byte je byte operiert wird ist mir vollkommen egal. Ich habe hier Binaries im MB Bereich und die sind absolut bytegenau.
MfG
Zeichenkodierung
bearbeitet von plhi @Rolf B
> fromCharCode(n) mit n<256 wird von JS NICHT als Byte interpretiert. Sondern immer als Zeichen, gespeichert in 16 Bit.
Es sind nur 8 Bit (1 byte), nicht 16
~~~js
var s = String.fromCharCode(195,164,228);
console.log(s, s.length);
// siehst Du
// ää 3
~~~
.length ist also die Anzahl der bytes die dabei rauskommen. Ob JS intern da mit 2 byte je byte operiert wird ist mir vollkommen egal.
MfG
> fromCharCode(n) mit n<256 wird von JS NICHT als Byte interpretiert. Sondern immer als Zeichen, gespeichert in 16 Bit.
Es sind nur 8 Bit (1 byte), nicht 16
~~~js
var s = String.fromCharCode(195,164,228);
console.log(s, s.length);
// siehst Du
// ää 3
~~~
.length ist also die Anzahl der bytes die dabei rauskommen. Ob JS intern da mit 2 byte je byte operiert wird ist mir vollkommen egal.
MfG
Zeichenkodierung
bearbeitet von plhi @Rolf B
> fromCharCode(n) mit n<256 wird von JS NICHT als Byte interpretiert. Sondern immer als Zeichen, gespeichert in 16 Bit.
Es sind nur 8 Bit (1 byte), nicht 16
~~~js
var s = String.fromCharCode(195,164,228);
console.log(s, s.length);
// siehst Du
// ää 3
~~~
.length ist also die Anzahl der bytes die dabei rauskommen. Ob JS intern da mit 2 byte operiert wird ist mir vollkommen egal.
MfG