Hallo Stephan,
vielen Dank für Deinen tollen Beitrag! Hab lange nicht mehr so viel
Mist gelesen und so gut gelacht!
oh, da hast Du Dir wohl den Falschen ausgesucht. Michael mehr oder
weniger als unkompetent darzustellen, da liegst Du wohl eindeutig
nicht richtig ;-)
Wenn Du tatsächlich lokal Zugriff auf den Server hast ist das ja machbar, aber es gibt doch tatsächlich Firmen, die CMS und Application Server einsetzen (ja, ich meine richtige Webauftritte und Tools, kein Spielzeug) und ihre Website über mehrere Server verteilen - die können offline rein gar nichts überprüfen.
stimmt, nur die nutzen mit Sicherheit auch keine Angebote externer
Anbieter auf deren Websites, um ihre Internetpräsenzen auf 404er
o.ä. zu prüfen. D.h. der Webmaster von focus.de wird kaum den URL
bei Euch eintippen und dann sich einige Zeit später die Auswertung
holen. Der installiert maximal ein Programm direkt auf seinem
Server. Und davon war hier nicht die Rede.
Geht es hier um "Bunt und Hübsch", schubsen wir die Maus herum oder
arbeiten wir tatsächlich? Ich denke es ging bei diesen Tests ja wohl ersteinmal um die Funktionalität und die ist gut!
Wenn es nur die zwei Zustände "Danke!" oder "nichts gefunden!"
gibt, dann ist die Sache für mich praktisch wertlos. Sorry, ist
jetzt hart, aber es ist so. Hat nix mit Klickibunti zu tun, es
fehlt einfach die Informationen darüber, was da genau passiert,
also z.Bsp. "Ihre Domain wurde noch nicht überprüft." oder "Es
wurden keine 404-Fehler festgestellt.". Ganz zu schweigen von
der erweiterten Ausgabe am Ende, die Michael bereits angesprochen
hat.
So jetzt aber mal eine konstruktive Frage zum Linkchecker (ja Michael, das geht auch konstruktiv, denn wenn man nur nörgelt, kann man auch einfach mal das schreiben sein lassen):
Der Nachsatz ist wirklich dümmlich, so redet man vielleicht mit
kleinen Kindern, aber Michael unkonstruktiven Stil vorzuwerfen,
ist der Witz schlechthin. Nach dem Lesen seines Postings dachte
ich mir "Stimmt, hat er genau das gesagt, was ich eigentlich auch
zu der Sache noch sagen wollte.".
Wir (W3 Solutions GmbH) betreuen Kundenwebsites, die u.a. mit Application Servern laufen und die im wesentlichen nur aus einer einzigen index.jsp - Datei bestehen, die dann aber über den QueryString ein paar tausend Seiten zur Verfügung stellt.
Davon ist im Moment das erste Mal die Rede. Bisher stand im Raum
nur eine Website, wo man den URL eintippt und dann eine Prüfung
dieser Website auf 404-Fehler stattfindet. Da hat niemand erwähnt,
dass die Sache auf den Servern laufen soll oder ganz speziell für
dynamische Websites gedacht ist.
Wäre es möglich die Eingabe zum Checken von Sites noch durch einen regulären Ausdruck zu erweitern (kann ja optional sein), so das man genauere Suchmuster eingeben kann?
Sicher gibt es diese Möglichkeit prinzipiell, aber ohne Kenntnis
des Quelltextes kann man da nur vermuten. Woher soll Michael es
wissen, wie Euer Script funktioniert?
Gruß, Stephan
http://www.w3solutions.de
Viele Grüße,
Stefan
einspender@inf.tu-dresden.de
SELFHTML-Developer
*SCNR*