Auch Hi!
darf ich fragen, welchen Proxy Du einsetzt, und ob dieser auch "sauber" arbeitet, sprich: valide HTML-Manipulationen unter Berücksichtigung aller üblichen Problemzonen (sei hier nur JavaScript erwähnt) durchführt? Wie sieht es allgemein mit dem Leistungsumfang aus?
Ich benutze Proxomitron (http://proxomitron.org/). Aber nein, sauber arbeitet der ganz und gar nicht. Er schmiert ziemlich in der Seite rum. Ich war nur zu faul, was besseres zu suchen. Aber da ja unsere lieben Browser sowieso Quirks mode bis zum Getno beherrschen, ist das nicht so schlimm.
Unschoener ist schon, dass er keine gzip-encoded Seiten bearbeiten kann. Deswegen muss ich bei den outgoing Headers das Accept-Encoding wegfiltern, damit ich die gelieferten Seiten anschliessend bearbeiten kann. Aber vielleicht kann er gzip in der aktuellen Version schon, keine Ahnung.
Und was auch nervt, ist die etwas sinnbefreite Regexp-Syntax. Das ist naemlich nicht Standard-Perl- oder -Posix-Syntax, sondern eine eigene Suppe, der man den Versuch ansieht, DAU compatible zu sein, was aber nicht so ganz geklappt hat.
Also fuer Verbesserungsvorschlaege bin ich da schon dankbar. Es nervt bis jetzt nur nicht so sehr, dass es reichen wuerde, meine Traegheit zu ueberwinden. ;-) Am besten waere etwas, das nicht nur einfach Regexps und Standardmodifikationen zulaesst, sondern wo man ein eigenes externes Modul einbinden kann. Dann wuerde ich naemlich mal einen Filter schreiben, der alles rauswirft, was nicht HTML Strict ist. Das wuerde das Surfen wieder um einiges angenehmer machen.
So long
--
It is practically impossible to teach good programming style to students that have had prior exposure to BASIC: as potential programmers they are mentally mutilated beyond hope of regeneration.
-- Edsger W. Dijkstra: "Selected Writings on Computing: A Personal Perspective"
(see http://www.tuxedo.org/~esr/jargon/html/entry/BASIC.html)