Hallo,
hätte suchmaschinenbetreiber vor jahren damit begonnen, zu sagen "wir crawlen nur mehr validen, maschinenlesbaren code" würden heute ALLE restlos maschinenlesbaren code produzieren
Ich weiß gar nicht, was du hast. Das Web ist doch hervorragend durch Suchmaschinen maschinenlesbar. Das, was sie parsen können, verarbeiten sie, den Rest werfen sie weg. Das ist sogar bald HTML-Standard! Und für semantischen Unsinn (also z.B. unsinnige Verschachtelung) interessieren sich Suchmaschinen nicht. Es ist recht einfach, das Brauchbare zu gebrauchen und den Rest zu ignorieren.
im falle der suchmaschinenoptimierung wird oft bewusst invalides html produziert
Um Suchmaschinen hereinzulegen, brauche ich m.W. kein invalides HTML.
ich denke google bremst aufgrund des guten suchalgorithmus, der auch in invalidem quelltextmüll noch informationen findet, die entwicklung des internet in gewissen teilen einfach stark aus
Wo ist das Problem? Google ist eine Suchmaschine, kein Validator. Wie fähig der Techniker ist, der gewisse Inhalt ins Netz bringt, interessiert mich gar nicht, wenn ich nach Inhalten suche.
Mathias