Reiner: kleine Fehlersuchmaschine fertig!

Hallo,

der Thread ist gestern irgendwann im Archiv verschwunden, deshalb nochmal zur Info.
Meine kleine Suchengine ist fertig. :-) (Naja, fertig ist nei etwas...)

Wer das mal testen will, darf das mal unter http://www.rusch.dyndns.org tun!

Zunächst muß ein URL (unteres Feld) hinzugefügt werden.
Das wird dann in eine Rotation eingebaut und durchsucht!
(Kann also "etwas" dauern - wenn KEINE Fehler auftauchen, wird auch nie eine Meldung erscheinen)

hmm, bei der Oberfläche habe ich mir jetzt keine Mühe gegeben, bin kein Spezi bei sowas, aber die Maschine hat umso mehr Zeit gefressen.

Über Feedback würde ich mich freuen!

Reiner

  1. http://rusch.dyndns.org ist der richtige Link, sorry!

  2. Halihallo Reiner

    der Thread ist gestern irgendwann im Archiv verschwunden, deshalb nochmal zur Info.
    Meine kleine Suchengine ist fertig. :-) (Naja, fertig ist nei etwas...)

    Glückwunsch! - Aber könntest du noch kurz den Link auf den Thread veröffentlichen? - Muss mich dort mal durchlesen.

    Wer das mal testen will, darf das mal unter http://www.rusch.dyndns.org tun!

    OK. Hab auch schon mal was ausprobiert, aber mit der "Suchausgabe" "Danke", oder "keine Fehler" kann ich noch nix anfangen (hängt wohl damit zusammen, dass ich den Thread nicht gelesen hab)

    hmm, bei der Oberfläche habe ich mir jetzt keine Mühe gegeben, bin kein Spezi bei sowas, aber die Maschine hat umso mehr Zeit gefressen.

    Ach, Design kommt bei mir auch immer zuletzt ;)
    Das Backend ist viel, viel interessanter, als CSS und HTML (meiner Meinung nach auf jeden Fall) ;)

    Viele Grüsse

    Philipp

    1. Hallo Philipp,

      der Thread ist gestern irgendwann im Archiv verschwunden, deshalb nochmal zur Info.
      Meine kleine Suchengine ist fertig. :-) (Naja, fertig ist nei etwas...)

      Glückwunsch! - Aber könntest du noch kurz den Link auf den Thread veröffentlichen? - Muss mich dort mal durchlesen.

      aehm, kann ich auch nicht finden. Dauert vielleicht, bis das dort auftaucht?! keine Ahnung...

      Wer das mal testen will, darf das mal unter http://rusch.dyndns.org tun!

      OK. Hab auch schon mal was ausprobiert, aber mit der "Suchausgabe" "Danke", oder "keine Fehler" kann ich noch nix anfangen (hängt wohl damit zusammen, dass ich den Thread nicht gelesen hab)

      Danke -> bei Eingabe eines neuen URL
      keine Fehler -> keinen Treffer auf 404 bzgl. der Suche

      Gib einfach mal was (in das untere Feld) ein, warte etwas.
      Dann über die Suche versuchen, Fehler zu finden.

      Ach, Design kommt bei mir auch immer zuletzt ;)
      Das Backend ist viel, viel interessanter, als CSS und HTML (meiner Meinung nach auf jeden Fall) ;)

      Ja, ich tue mich damit immer etwas schwer, DHTML und dieses ganze Browsergedr..sse ist schwieriger zu verstehen, als wie man auf eine DB zugreift usw. Da gibt es jedenfalls einen roten Faden! :-)

      lg
      Reiner

      1. Halihallo Reiner

        Glückwunsch! - Aber könntest du noch kurz den Link auf den Thread veröffentlichen? - Muss mich dort mal durchlesen.

        aehm, kann ich auch nicht finden. Dauert vielleicht, bis das dort auftaucht?! keine Ahnung...

        Sogar sehr wahrscheinlich (ich hab den selben verdacht)... Wird wohl noch einen Tag dauern, bis er endgültig ins archiv wandert, bzw. vom cron-job-started-progi in die mysql-Datenbank gespeist wird...

        OK. Hab auch schon mal was ausprobiert, aber mit der "Suchausgabe" "Danke", oder "keine Fehler" kann ich noch nix anfangen (hängt wohl damit zusammen, dass ich den Thread nicht gelesen hab)

        Gib einfach mal was (in das untere Feld) ein, warte etwas.
        Dann über die Suche versuchen, Fehler zu finden.

        Juhuiii, hat etwas gedauert, aber ich hab's jetzt begriffen, worum es geht. Alle Links auf der Page werden geladen und ausgegeben, falls diese nicht existieren (404-Error)...
        Schaut gut aus... Das nächste Feature wäre wohl, dass alle 404-Links bis zur n-ten Rekursionstiefe ausgefiltert werden... Oder dass alle HTTP-Fehlercodes gefiltert werden (z. B. auch Access forbidden oder so)...

        Ach, Design kommt bei mir auch immer zuletzt ;)
        Das Backend ist viel, viel interessanter, als CSS und HTML (meiner Meinung nach auf jeden Fall) ;)

        Ja, ich tue mich damit immer etwas schwer, DHTML und dieses ganze Browsergedr..sse ist schwieriger zu verstehen, als wie man auf eine DB zugreift usw. Da gibt es jedenfalls einen roten Faden! :-)

        :-)
        Ich bin froh, dass ich mit einem Designer zusammenarbeiten kann, der mir schon einige Bugs ausfischt, bevor ich die Page implementiere, aber einige bleiben immer übrig und mit denen darf ich mich dann quälen :-)

        1. Hi,

          Juhuiii, hat etwas gedauert, aber ich hab's jetzt begriffen, worum es geht. Alle Links auf der Page werden geladen und ausgegeben, falls diese nicht existieren (404-Error)...
          Schaut gut aus... Das nächste Feature wäre wohl, dass alle 404-Links bis zur n-ten Rekursionstiefe ausgefiltert werden... Oder dass alle HTTP-Fehlercodes gefiltert werden (z. B. auch Access forbidden oder so)...

          ja, ich habe das auf die Schnelle zusammengekleistert! :-)
          Was dahintersteckt, war schwer genug, ich habe nur mal eben eine Oberfläche gemacht, damit man was sieht.
          Habe jetzt zusätzlich noch die Suche in zwei Felder geplittet, damit man nicht einfach mit "www." alle vorhandenen Fehler suchen kann!

          lg
          Reiner

      2. Hallo Ihr zwei,

        Aber könntest du noch kurz den Link auf den Thread veröffentlichen?
        aehm, kann ich auch nicht finden.

        Gewusst wie. http://forum.de.selfhtml.org/archiv/2002/6/14464/#m80531

        schwieriger zu verstehen, als wie man auf eine DB zugreift usw. Da gibt es jedenfalls einen roten Faden! :-)

        Naja, zum Glück muss man ja nur mit einer Sprache auf eine DB zugreifen. So gesehen ist's leichter, aber HTML kann man wunderbar mit Abkupfern und grafischen Editoren Stcüchenweise lernen. Aber eine DB-Abfrage Stück für Stück zu lernen dürfte schwer fallen. :-)

        Grüße aus Würzburg
        Julian

  3. Hallo Reiner,

    Wer das mal testen will, darf das mal unter http://rusch.dyndns.org tun!

    worum es geht, habe ich ja jetzt inzwischen mitbekommen, allerdings
    ist mir unklar, warum ich die URL in Stückchen eingeben soll (ist
    unüblich, sollte nur ein Feld sein) und wozu ist das zweite Feld
    bzw. die zweite Formularfeldzeile da?

    Mal angenommen, ich will http://stefan.einspender.com/ überprüfen,
    dann gebe ich oben "http://stefan.einspender | com" ein, was aber
    gehört in die Zeile darunter?

    Habe mal oben nur den URL eingetippt, da kam als Antwort "Danke!",
    wenn ich unten die gleiche Adresse auch eintippe, dann erscheint
    "nichts gefunden!" ... bei der zweiten Sache kann ich mir ja noch
    vorstellen, was es heißen soll, aber warum "Danke!"?

    Wie war das nochmal mit der Usability? ;-)

    Viele Grüße,
    Stefan

    1. Hallo Stefan,

      Wer das mal testen will, darf das mal unter http://rusch.dyndns.org tun!

      worum es geht, habe ich ja jetzt inzwischen mitbekommen, allerdings
      ist mir unklar, warum ich die URL in Stückchen eingeben soll (ist
      unüblich, sollte nur ein Feld sein) und wozu ist das zweite Feld
      bzw. die zweite Formularfeldzeile da?

      also, ich hacke an dem Gerät, was eigentlich der Hintergrund ist, schon sehr lange rum. Das war enorm komplex! (oder ich bin doof, wie auch immer....)
      Ich habe die Bedienung in superkurzer Zeit zusammengeschraubt, wie gesagt... ist nicht der Hit!

      Aber: Lies JETZT mal die Anleitung!

      Hintergrund:
      Ich müßte wieder mit Reg.Express. rumbasteln, habe ich im Moment nicht viel Lust zu.
      Ich will, daß die Leute domain|kürzel trennen, so brauche ich nur prüfen, ob beide vorhanden sind, wieder zusammenkleben -> fertig.

      Sonst wäre es möglich, einfach nur "www." anzugeben und man bekäme 70% aller Einträge, was ich nicht will.

      Ich gehe aber mit einem "select ..... where url like '%<eingabe>%'"
      auf die DB, um so alles, was die Domain irgendwo trifft, auch paßt.

      Ist noch nicht so ganz durchdacht, aber auf die Schnelle, viel mir jetzt nix besseres ein... :-)

      Mal angenommen, ich will http://stefan.einspender.com/ überprüfen,
      dann gebe ich oben "http://stefan.einspender | com" ein, was aber
      gehört in die Zeile darunter?

      1. Suchen lassen
      2. Auswerten

      Habe mal oben nur den URL eingetippt, da kam als Antwort "Danke!",
      wenn ich unten die gleiche Adresse auch eintippe, dann erscheint
      "nichts gefunden!" ... bei der zweiten Sache kann ich mir ja noch
      vorstellen, was es heißen soll, aber warum "Danke!"?

      "Danke" für Ihre Domaineingabe.
      "Nichts gefunden" -> kein Fehler gefunden, Domain nicht gefunden oder noch nicht durchgelaufen....

      Wie war das nochmal mit der Usability? ;-)

      s.o. (sorry)

      Ich bin ein %&§*-Grafiker.

      Aber, versuch einfach, meine Erklärung zu verstehen, ich will mit der Sache auf etwas hinaus, was ich gerne mit ein paar Leuten besprechen würde, aber auch das muß ich mir noch genauer überlegen....

      cu
      Reiner

      1. Hallo Reiner,

        Aber: Lies JETZT mal die Anleitung!

        ok, jetzt weiß ich, dass ich entweder Feld 1 oder Feld 2 nehme,
        allerdings kann ich scheinbar im ersten Feld irgendwas eingeben,
        also auch   www.hans-wurst | xy   , da kommt trotzdem "Danke!"?

        Und beim zweiten Feld kommt immer "nichts gefunden!"?

        ...

        Jetzt ist mir wohl endlich eingefallen, wie es funktionieren soll.
        Das erste Feld ist dazu da, dass Du den URL in die Datenbank auf-
        nimmst und auf 404-Fehler checkst. Wenn dann später jemand diesen
        URL im zweiten Feld eingibt, werden die 404-Fehler aufgelistet.

        Soweit sogut, nur ist es mir bisher nicht gelungen, dem Script
        eine andere Meldung ausser "Danke!" oder "nichts gefunden!" zu
        entlocken, wie geht sowas?

        1. Suchen lassen
        2. Auswerten

        Habe es mal mit einer anderer Website probiert, wo ganz sicher et-
        liche 404-Fehler vorhanden sind, wieder nur die beiden Meldungen.

        "Nichts gefunden" -> kein Fehler gefunden, Domain nicht gefunden oder noch nicht durchgelaufen....

        Wäre sehr gut, wenn Du diese drei Sachen unterschiedlich ausgeben
        kannst. Ist schon sehr wichtig, ob es auf einer Website keinerlei
        404-Fehler gibt, ob ich mich vielleicht bei der Eingabe vertippt
        habe oder ob sie noch nicht bearbeitet wurde ;-)

        Viele Grüße,
        Stefan

        1. Hi,

          Aber: Lies JETZT mal die Anleitung!

          ok, jetzt weiß ich, dass ich entweder Feld 1 oder Feld 2 nehme,
          allerdings kann ich scheinbar im ersten Feld irgendwas eingeben,
          also auch   www.hans-wurst | xy   , da kommt trotzdem "Danke!"?

          Und beim zweiten Feld kommt immer "nichts gefunden!"?

          ...

          HansWurst.xy gibt es nicht, also auch keine 404er-Fehler!

          Jetzt ist mir wohl endlich eingefallen, wie es funktionieren soll.
          Das erste Feld ist dazu da, dass Du den URL in die Datenbank auf-
          nimmst und auf 404-Fehler checkst. Wenn dann später jemand diesen
          URL im zweiten Feld eingibt, werden die 404-Fehler aufgelistet.

          Soweit sogut, nur ist es mir bisher nicht gelungen, dem Script
          eine andere Meldung ausser "Danke!" oder "nichts gefunden!" zu
          entlocken, wie geht sowas?

          Wenn Du auf Deiner Einspender-Seite mal einen Link hättest, würde es auch einen verfolgen wollen. Ein "mailto:" kann ich nicht prüfen, weil das kein Weblink ist!

          Bastel einen (falschen) Link da rein, ich schmeiße Deinen Eintrag aus der DB, dann kannste rumprobieren! :-)

          Reiner

        2. Hi ihr beiden,

          Das erste Feld ist dazu da, dass Du den URL in die Datenbank auf-
          nimmst und auf 404-Fehler checkst. Wenn dann später jemand diesen
          URL im zweiten Feld eingibt, werden die 404-Fehler aufgelistet.

          Wieso nicht
          a) nur ein URL-Eingabefeld und
          b) ein Radio-Button für den "Betriebsmodus"?
          (Oder sogar zwei unterschiedliche submit-Buttons?)

          Soweit sogut, nur ist es mir bisher nicht gelungen, dem Script
          eine andere Meldung ausser "Danke!" oder "nichts gefunden!" zu
          entlocken, wie geht sowas?

          Minimum an Ausgabe sollte sein, wie viele URLs geprüft
          wurden, ggf. auch wie viele dieser Seiten welchen HTTP-
          Status lieferten, also z. B.

          716 Seiten HTTP-Status 200 ("Okay")
              7 Seiten HTTP-Status 301 ("Moved Permanently")
              5 Seiten HTTP-Status 302 ("Found")
              2 Seiten HTTP-Status 401 ("Unauthorized")
              3 Seiten HTTP-Status 403 ("Forbidden")
             11 Seiten HTTP-Status 404 ("Not Found")

          Texte für Statuscodes:
          http://www.w3.org/Protocols/rfc2616/rfc2616-sec10.html#sec10

          Wobei ggf. jede dieser Zeilen ein Link auf den URL
          zur Ausgabe dieser Teilmenge sein könnte.

          Apropos: Man könnte zusätzliche Eingabefelder für
          Benutzerkennung und Passwort vorsehen, damit der
          Links-Checker ggf. entsprechende Credentials an
          den zu prüfenden Server senden kann, falls er eine
          "401" empfängt.
          Ob das jemand nutzt (und dafür ggf. temporär eine
          Diagnose-ID definiert), ist dem Anwender überlassen
          (und eine Frage des Vertrauens in diesen Dienst).
          Meine Seiten offline mit Xenu zu testen ist da na-
          türlich das kleinere Risiko ...

          Viele Grüße
          <img src="http://www.schroepl.net/projekte/gzip_cnc/gzip_cnc.gif" border=0 alt=""> Michael

          1. Hi ihr beiden,

            Hallo alleine, :-)

            Das erste Feld ist dazu da, dass Du den URL in die Datenbank auf-
            nimmst und auf 404-Fehler checkst. Wenn dann später jemand diesen
            URL im zweiten Feld eingibt, werden die 404-Fehler aufgelistet.

            Wieso nicht
            a) nur ein URL-Eingabefeld und
            b) ein Radio-Button für den "Betriebsmodus"?
            (Oder sogar zwei unterschiedliche submit-Buttons?)

            habe ich schon überlegt!
            Aber ich war "tot", als ich die Seite geschrieben habe. Die Erklärungen habe ich blödsinnig formuliert (und formatiert), aber mit VI! :-))

            Soweit sogut, nur ist es mir bisher nicht gelungen, dem Script
            eine andere Meldung ausser "Danke!" oder "nichts gefunden!" zu
            entlocken, wie geht sowas?

            Minimum an Ausgabe sollte sein, wie viele URLs geprüft
            wurden, ggf. auch wie viele dieser Seiten welchen HTTP-
            Status lieferten, also z. B.

            716 Seiten HTTP-Status 200 ("Okay")
                7 Seiten HTTP-Status 301 ("Moved Permanently")
                5 Seiten HTTP-Status 302 ("Found")
                2 Seiten HTTP-Status 401 ("Unauthorized")
                3 Seiten HTTP-Status 403 ("Forbidden")
               11 Seiten HTTP-Status 404 ("Not Found")

            Die Idee finde ich Klasse!

            Also so (?):

            Teamone.de 500 Fehler
            Quelle.de 1500 Fehler
            ....
            Mickeysoft 10^212 Fehler

            ist auch denkbar.

            Zum Anklicken braucht man ein Paßwort.

            Texte für Statuscodes:
            http://www.w3.org/Protocols/rfc2616/rfc2616-sec10.html#sec10

            Brauche ich nicht, liefern die Server von alleine!
            Außerdem ist Code und Message nicht immer gleich, denn 500 (Internel Server Error) kann ein CGI-Fehler aber auch ein ReadTimeOut sein!!!

            Wobei ggf. jede dieser Zeilen ein Link auf den URL
            zur Ausgabe dieser Teilmenge sein könnte.

            s.o.

            Apropos: Man könnte zusätzliche Eingabefelder für
            Benutzerkennung und Passwort vorsehen, damit der
            Links-Checker ggf. entsprechende Credentials an
            den zu prüfenden Server senden kann, falls er eine
            "401" empfängt.
            Ob das jemand nutzt (und dafür ggf. temporär eine
            Diagnose-ID definiert), ist dem Anwender überlassen
            (und eine Frage des Vertrauens in diesen Dienst).
            Meine Seiten offline mit Xenu zu testen ist da na-
            türlich das kleinere Risiko ...

            Naja, ich möchte Xenu nicht schlecht machen, aber meine Maschine sieht (noch) doof aus, aber steckt noch viel mehr drin, was ich aber noch nicht sichtbar gemacht habe. Es ist gleichzeitig eine komplette Suchmaschine! Sag mir ein Wort, daß auf nur ein paar Deiner Seiten vorkommt, ich nenne Dir alle URLs, mit Keywords, Description und Title (sowie MD5-Schlüssel)!

            Ich muß über die Sache nochmal schlafen, weiß noch nicht genau, was ich damit realisieren kann.

            Ich frage mal in die Runde: Ist ein Linkchecker (ok, bessere Bedienbarkeit vorausgesetzt) interessant?
            Wäre es vermessen, x Ebenen und y(tausend) Links pro Monat einmal kostenlos auflösen zu lassen, alles darüber hinaus aber bezahlen zu lassen, vermessen?

            Reiner

            P.S.:
            Ich darf ja nicht sagen, WER alles auf meinem Server war, aber hat mich schon erstaunt, wer hier mitliest.
            D.h., wenn es die Besitzer der Domains waren!
            Jedenfalls war die Kiste echt am Qualmen!!!

            1. Hi,

              Naja, ich möchte Xenu nicht schlecht machen,

              das wird Dir auch nicht gelingen. Ich arbeite seit
              zwei Jahren mit Xenu, und es ist halt ein Unterschied,
              ob ich meine komplette Domain innerhalb von zwei
              Minuten offline links-checken kann oder Deine Maschine
              nutzen muß, die

              • den Traffic meines Webspace in die Höhe treibt,
              • den Zugriff für andere Besucher bremst und
              • mich zwingt, selbst online sein zu müssen.
                Ein Offline-Programm ist hier wesentlich praktischer.

              Und was den Ausgabeluxus angeht, wirst Du Dich mit
              linklint etc. messen müssen. Und der war schon vor
              vier Jahren, als ich ihn ausprobiert habe, recht nett.

              steckt noch viel mehr drin, was ich aber noch nicht
              sichtbar gemacht habe. Es ist gleichzeitig eine
              komplette Suchmaschine! Sag mir ein Wort, daß auf
              nur ein paar Deiner Seiten vorkommt, ich nenne Dir
              alle URLs, mit Keywords, Description und Title
              (sowie MD5-Schlüssel)!

              Wenn ich eine Suchmaschine haben will, installiere
              ich mir eine, die wesentlich effizienter arbeitet
              als Dein Links-Checker - weil sie darauf optimiert
              ist.
              Ich brauche keine eierlegende Wollmilchsau - lieber
              eine Handvoll guter, erprobter Spezial-Werkzeuge.

              Ich frage mal in die Runde: Ist ein Linkchecker
              (ok, bessere Bedienbarkeit vorausgesetzt)
              interessant?

              Es gibt schon ziemlich viele, und über Perl-Module zum
              Links-Extrahieren kann sich jeder relativ einfach
              selbst einen schreiben.
              Mein HTML-Validator im Text-Editor macht sogar schon
              eine Prüfung dokument-lokaler Links (und eine Eindeu-
              tigkeitsprüfung von Element-IDs) ...

              Wäre es vermessen, x Ebenen und y(tausend) Links
              pro Monat einmal kostenlos auflösen zu lassen, alles
              darüber hinaus aber bezahlen zu lassen, vermessen?

              Ich würde Deine Maschine schon kostenlos nicht benutzen
              wollen - umso weniger, wenn es auch noch etwas kostet
              (schon alleine, weil ich zu faul bin, herauszufinden,
              wie ich Dir Geld zukommen lassen müßte ... aber auch,
              weil ich nicht einsehen würde, für eine derartig tri-
              viale Funktion etwas zu bezahlen).

              D.h., wenn es die Besitzer der Domains waren!

              War Bill Gates dabei? ;-)

              Jedenfalls war die Kiste echt am Qualmen!!!

              Eben. Stell Dir mal vor, Du mußt den Traffic bezahlen,
              den Deine HTTP-Requests verursachen! Dann wirst Du Dir
              die Idee, daraus einen Service zu machen, überlegen.

              Viele Grüße
              <img src="http://www.schroepl.net/projekte/gzip_cnc/gzip_cnc.gif" border=0 alt=""> Michael

              1. Hallo Michael,
                vielen Dank für Deinen tollen Beitrag! Hab lange nicht mehr so viel
                Mist gelesen und so gut gelacht!

                Aber zum Thema:

                Ein Offline-Programm ist hier wesentlich praktischer.

                Wenn Du tatsächlich lokal Zugriff auf den Server hast ist das ja machbar, aber es gibt doch tatsächlich Firmen, die CMS und Application Server einsetzen (ja, ich meine richtige Webauftritte und Tools, kein Spielzeug) und ihre Website über mehrere Server verteilen - die können offline rein gar nichts überprüfen.

                Und was den Ausgabeluxus angeht

                Geht es hier um "Bunt und Hübsch", schubsen wir die Maus herum oder
                arbeiten wir tatsächlich? Ich denke es ging bei diesen Tests ja wohl ersteinmal um die Funktionalität und die ist gut!

                So jetzt aber mal eine konstruktive Frage zum Linkchecker (ja Michael, das geht auch konstruktiv, denn wenn man nur nörgelt, kann man auch einfach mal das schreiben sein lassen):
                Wir (W3 Solutions GmbH) betreuen Kundenwebsites, die u.a. mit Application Servern laufen und die im wesentlichen nur aus einer einzigen index.jsp - Datei bestehen, die dann aber über den QueryString ein paar tausend Seiten zur Verfügung stellt. Wäre es möglich die Eingabe zum Checken von Sites noch durch einen regulären Ausdruck zu erweitern (kann ja optional sein), so das man genauere Suchmuster eingeben kann?

                Gruß, Stephan
                http://www.w3solutions.de

                1. Hallo Stephan,

                  vielen Dank für Deinen tollen Beitrag! Hab lange nicht mehr so viel
                  Mist gelesen und so gut gelacht!

                  oh, da hast Du Dir wohl den Falschen ausgesucht. Michael mehr oder
                  weniger als unkompetent darzustellen, da liegst Du wohl eindeutig
                  nicht richtig ;-)

                  Wenn Du tatsächlich lokal Zugriff auf den Server hast ist das ja machbar, aber es gibt doch tatsächlich Firmen, die CMS und Application Server einsetzen (ja, ich meine richtige Webauftritte und Tools, kein Spielzeug) und ihre Website über mehrere Server verteilen - die können offline rein gar nichts überprüfen.

                  stimmt, nur die nutzen mit Sicherheit auch keine Angebote externer
                  Anbieter auf deren Websites, um ihre Internetpräsenzen auf 404er
                  o.ä. zu prüfen. D.h. der Webmaster von focus.de wird kaum den URL
                  bei Euch eintippen und dann sich einige Zeit später die Auswertung
                  holen. Der installiert maximal ein Programm direkt auf seinem
                  Server. Und davon war hier nicht die Rede.

                  Geht es hier um "Bunt und Hübsch", schubsen wir die Maus herum oder
                  arbeiten wir tatsächlich? Ich denke es ging bei diesen Tests ja wohl ersteinmal um die Funktionalität und die ist gut!

                  Wenn es nur die zwei Zustände "Danke!" oder "nichts gefunden!"
                  gibt, dann ist die Sache für mich praktisch wertlos. Sorry, ist
                  jetzt hart, aber es ist so. Hat nix mit Klickibunti zu tun, es
                  fehlt einfach die Informationen darüber, was da genau passiert,
                  also z.Bsp. "Ihre Domain wurde noch nicht überprüft." oder "Es
                  wurden keine 404-Fehler festgestellt.". Ganz zu schweigen von
                  der erweiterten Ausgabe am Ende, die Michael bereits angesprochen
                  hat.

                  So jetzt aber mal eine konstruktive Frage zum Linkchecker (ja Michael, das geht auch konstruktiv, denn wenn man nur nörgelt, kann man auch einfach mal das schreiben sein lassen):

                  Der Nachsatz ist wirklich dümmlich, so redet man vielleicht mit
                  kleinen Kindern, aber Michael unkonstruktiven Stil vorzuwerfen,
                  ist der Witz schlechthin. Nach dem Lesen seines Postings dachte
                  ich mir "Stimmt, hat er genau das gesagt, was ich eigentlich auch
                  zu der Sache noch sagen wollte.".

                  Wir (W3 Solutions GmbH) betreuen Kundenwebsites, die u.a. mit Application Servern laufen und die im wesentlichen nur aus einer einzigen index.jsp - Datei bestehen, die dann aber über den QueryString ein paar tausend Seiten zur Verfügung stellt.

                  Davon ist im Moment das erste Mal die Rede. Bisher stand im Raum
                  nur eine Website, wo man den URL eintippt und dann eine Prüfung
                  dieser Website auf 404-Fehler stattfindet. Da hat niemand erwähnt,
                  dass die Sache auf den Servern laufen soll oder ganz speziell für
                  dynamische Websites gedacht ist.

                  Wäre es möglich die Eingabe zum Checken von Sites noch durch einen regulären Ausdruck zu erweitern (kann ja optional sein), so das man genauere Suchmuster eingeben kann?

                  Sicher gibt es diese Möglichkeit prinzipiell, aber ohne Kenntnis
                  des Quelltextes kann man da nur vermuten. Woher soll Michael es
                  wissen, wie Euer Script funktioniert?

                  Gruß, Stephan
                  http://www.w3solutions.de

                  Viele Grüße,
                  Stefan
                  einspender@inf.tu-dresden.de
                  SELFHTML-Developer
                  *SCNR*

                2. Sehr geehrter Herr Schulz,

                  ... es gibt doch tatsächlich Firmen, die ... ihre
                  Website über mehrere Server verteilen - die können
                  offline rein gar nichts überprüfen.

                  richtig. Beispielsweise die Firma, für die ich arbeite.

                  Und was den Ausgabeluxus angeht
                  Geht es hier um "Bunt und Hübsch",

                  Es geht um "Ergebnisse" gegenüber "leere Seite".

                  schubsen wir die Maus herum

                  Ich hatte den linklint explizit erwähnt - das scheint
                  Ihnen entgangen zu sein.

                  Ich denke es ging bei diesen Tests ja wohl
                  ersteinmal um die Funktionalität und die ist gut!

                  Wenn das Ergebnis in allen bisher getesteten und
                  hier veröffentlichten Fällen "kein Ergebnis" ist,
                  halte ich Ihre Aussage für angreifbar.

                  Wir (W3 Solutions GmbH) betreuen Kundenwebsites,

                  Vielen Dank für Ihr Spamming.

                  Mit hochachtungsvollen Grüßen
                      Dipl.-Inform Michael Schröpl

  4. Hallo Reiner,ich kann das Teil leider gar nicht aufrufen. Fehlermeldung. Gruß, Andreas

    1. Hallo Reiner,ich kann das Teil leider gar nicht aufrufen. Fehlermeldung. Gruß, Andreas

      Welche?

      lg Reiner