jeannie61: robot.txt

0 77

robot.txt

jeannie61
  • html
  1. 0
    Self-Nachtwächter
    1. 0
      Matthias Apsel
    2. 0
      jeannie61
      1. 0
        Matthias Apsel
        • suchmaschinen
      2. 0
        pl
    3. 0

      robot.txt +<META NAME="ROBOTS" CONTENT="NOINDEX">

      ursus contionabundo
  2. 0
    pl
    1. 0
      Matthias Apsel
      • sonstiges
  3. 0
    Rolf B
    1. 0
      pl
    2. 0
      jeannie61
      1. 0
        pl
        1. 0
          Rolf B
          1. 0
            pl
            1. 0
              Rolf B
              1. 0
                Matthias Apsel
              2. 0
                Christian Kruse
                1. 0
                  Rolf B
                  1. 0
                    Christian Kruse
                    1. 0
                      Tabellenkalk
                      • zur info
                      1. 0
                        Christian Kruse
                        1. 0
                          Rolf B
                          1. 0
                            Christian Kruse
              3. 0
                pl
                1. 0
                  Rolf B
                  1. 0
                    pl
                2. 0
                  Rolf B
          2. 0
            jeannie61
            1. 0
              Rolf B
              1. 0
                jeannie61
                1. 0
                  Rolf B
                  1. 0
                    jeannie61
                    1. 0
                      pl
            2. 0
              pl
              1. 0
                jeannie61
                1. 0
                  pl
                  1. 0
                    Jeannie
                    1. 0
                      pl
                      1. 0
                        jeannie61
                        1. 0
                          pl
                      2. 0
                        Rolf B
                        1. 0
                          pl
                          1. 0
                            Rolf B
                            1. 0
                              jeannie61
                              1. 0
                                Matthias Apsel
                                1. 0
                                  jeannie61
                                  1. 0
                                    Matthias Apsel
                                    1. 0
                                      Jeannie
                                      1. 0
                                        Rolf B
                                        1. 0
                                          jeannie61
                                          1. 0
                                            Matthias Apsel
                                            1. 0
                                              jeannie61
                                            2. 0
                                              Auge
                                              • webserver
                                              1. 0
                                                Matthias Apsel
                                              2. 0
                                                Matthias Apsel
                                                1. 0
                                                  Auge
                                                2. 0
                                                  Rolf B
  4. 0
    MudGuard
    • webserver
    1. 0
      Tabellenkalk
      1. 0
        Matthias Apsel
        • humor
        1. 0
          Tabellenkalk
          1. 0
            jeannie61
            1. 0
              Matthias Apsel
              1. 0
                jeannie61
                1. 0
                  Matthias Apsel
                  • sonstiges
                  1. 0
                    jeannie61
                  2. 0
                    Christian Kruse
                    1. 0
                      Matthias Apsel
                2. 0
                  jeannie61
                  1. 0
                    Tabellenkalk
                    • rechtschreibung
                    • sprache
                    1. 0
                      jeannie61
                      1. 0
                        Matthias Apsel
                        1. 0
                          jeannie61
                          1. 0
                            Matthias Apsel
                            1. 0
                              Rolf B
                              1. 0
                                MudGuard

Moin, ich habe mir überlegt, ob ich meine Passwortbereich einfach für google sperren kann, wenn ich es in mein robot text unterbringen?

Im Moment sieht es so aus,

Sitemap: http://kico4u.de/sitemap.xml
User-agent: *
Disallow:

Aber könnte ich nicht irgendwie sowas machen:

Sitemap: http://kico4u.de/sitemap.xml
User-agent: *
Disallow:/übungspass.de

würde google und alle anderen aufhören meine übungspass Seiten zu googeln? Dann würden nicht so viele Fehlmeldungen kommen, oder? Mein übungspass ist ein Passwort geschutzte Ordner.

Vielen Dank, Jeannie

  1. würde google und alle anderen aufhören meine übungspass Seiten zu googeln?

    Manche schon. Aber selbst Google hat mir neulich als Problem mit meiner Seite gemeldet, dass Google eine Seite indexiert habe, die laut robots.txt verboten sei.

    Ich bin mir unsicher wie und warum das passieren konnte. Die "Sperre" bestand von Anfang an.

    Aber im Prinzip stimmt das schon.

    1. Hallo Self-Nachtwächter,

      Manche schon. Aber selbst Google hat mir neulich als Problem mit meiner Seite gemeldet, dass Google eine Seite indexiert habe, die laut robots.txt verboten sei.

      Du kannst mit der robots.txt kein Verbot aussprechen, nur die freundliche Bitte äußern, bestimmte Ressourcen nicht zu indexieren.

      Bis demnächst
      Matthias

      --
      Pantoffeltierchen haben keine Hobbys.
    2. Also der Ordner um den es geht heisst:

      ................uebungspass.html

      reicht es wenn ich im robot:

      • Disallow:/übungspass.html

      schreibe oder muss ich noch mehr machen? Es ist eine von viele Ordner den ich auf meine Seite habe.

      1. Hallo jeannie61,

        Also der Ordner um den es geht heisst:

        ................uebungspass.html

        Die Punkte gibt es nicht wirklich oder? Ist es ein Ordner oder eine Datei?

        reicht es wenn ich im robot:

        • Disallow:/übungspass.html

        schreibe

        Nein. ue ist nicht dasselbe wie ü.

        oder muss ich noch mehr machen? Es ist eine von viele Ordner den ich auf meine Seite habe.

        Mit Disallow: /path/to/uebungspass.html bittest du, lediglich die Datei http://kico4u.de/path/to/uebungspass.html nicht zu indexieren.

        Bis demnächst
        Matthias

        --
        Pantoffeltierchen haben keine Hobbys.
      2. Also der Ordner um den es geht heisst:

        Für Dich mag das ein Ordner sein. Für GG ist es eine übliche Webressource worin sich evntl. weitere Links befinden denen der Bot selbstverständlich folgen würde. Aber ein Bot wäre kein Bot wenn er dieselben Links nicht auch anderswo finden würde.

        MfG

    3. <meta name="robots" value="noindex">
      

      (oder die Varianten) sollte man (in Ressourcen vom Content-Type x{0,1}html ZUSÄTZLICH zur robots.txt setzen wenn diese nicht in den Ergebnislisten auftauchen sollen. Die robots.txt hat vor allem die Aufgabe, die "robots" (dazu zählt auch wget) freundlich zu bitten, das Abrufen der darin genannten Ressourcen zu vermeiden.

      Will man Sicherheit muss man eben, wie bereits ausführlich diskutiert, einen Passwortschutz oder auch ähnliches verwenden. Dabei ist aber ziemlich egal, ob man den mit htaccess oder durch einen eigenen Mechanismus "baut".

  2. G. meldet dann: Indexiert, obwohl durch robots.txt-Datei blockiert

    Und anstatt sich darüber zu ärgern könnte man ja auch mal nachdenken wie man sich sowas zunutze machen kann. Darüber hab ich schon vor Jahren hier mal was geschrieben.

    MfG

    1. Hallo pl,

      Darüber hab ich schon vor Jahren hier mal was geschrieben.

      Aha. Suche: author:hotti body:robots, Ergebnis

      Oder ist das auch ein Beitrag, der auf deinen eigenen Wunsch wieder gelöscht wurde? (https://forum.selfhtml.org/m1740736 ff.)

      Bis demnächst
      Matthias

      --
      Pantoffeltierchen haben keine Hobbys.
  3. Hallo jeannie61,

    ich frag mich was ganz anderes: Wenn der Bereich passwortgeschützt ist, wie kommt Google dann dran?

    Verwendest Du Security By Obscurity? D.h. wer den Pfadnamen weiß, kommt ran? Wenn eine echte Authentication aktiviert ist, sollte Google keine Chance haben.

    Rolf

    --
    sumpsi - posui - clusi
    1. Natürlich kommt niemand an den Inhalt wenn z.B. Auth Basic vorliegt. Es ist jedoch gut zu wissen, daß GG solche Seiten trotzdem in seinen Index aufnimmt. MfG

    2. Hallo Rolf, alle suchmaschinen sehen die Seiten als kaputt an, weil die hälfte die Links auf meine Seite führen zum Passwortbereich. Genau diese Links werden als Fehlern angesehen 😟

      1. Hallo Rolf, alle suchmaschinen sehen die Seiten als kaputt an, weil die hälfte die Links auf meine Seite führen zum Passwortbereich. Genau diese Links werden als Fehlern angesehen 😟

        Da wirds ja Zeit mal über ein anderes Konzept nachzudenken. MfG

        1. Hallo pl,

          ja, bei den Suchmaschinen. Ich habe mal ein bisschen da rumgesurft, und wenn eine Suchmaschine eine Website als kaputt bemängelt, weil ein Link auf HTTP Status 401 läuft, dann fände ich das ziemlich dusselig.

          Wovon ich aber deutlich pissé bin (excuse my french), ist dieser Response-Body der HTTP 401 Message:

          <script type="text/javascript">
             document.write('<script type="text/javascript" language="JavaScript"'
                          + 'src="//sedoparking.com/frmpark/'
                          + window.location.host + '/'
                          + '1und1parking6'
                          + '/park.js">'
                          + '<\/script>');
          </script>
          

          was zu

          <script type="text/javascript" language="JavaScript" src="//sedoparking.com/frmpark/kico4u.de/1und1parking6/park.js"></script>
          

          aufgelöst wird. Mein Browser zeigt dann an "blocked:other", d.h. das wird als unautorisiertes XSS angesehen und deswegen blockiert.

          Ich nehme mal an, dass hier die 401-Seite nicht für kico4u angepasst wurde und noch den Inhalt aus der Zeit hat, wo die Domain bei bei Sedo geparkt war. Der Google Crawler erkennt das Parking-Script und regt sich möglicherweise darüber auf.

          Rolf

          --
          sumpsi - posui - clusi
          1. hi,

            ja, bei den Suchmaschinen. Ich habe mal ein bisschen da rumgesurft, und wenn eine Suchmaschine eine Website als kaputt bemängelt, weil ein Link auf HTTP Status 401 läuft, dann fände ich das ziemlich dusselig.

            Besser als ein falscher Status ist kein Status. guck mal hier , die ausgetauschen Inhalte wird eine Suchmaschine nie erreichen.

            MfG

            1. Hallo pl,

              du solltest für jede Referenz auf dein Framework 5€ auf das Self-Spendenkonto einzahlen, dann ist der Self-Verein schnell reich 😂. Die hier war zwar indirekt, es war aber trotzdem eine.

              Also - ja klar, wenn die Site von einer Routing Engine getrieben wird, kann man sowas machen.

              Aber Jeannie hat, wie es aussieht, statisches HTML. Bestenfalls kann sie SSIs einsetzen, wenn sie nicht alles auf eine Scriptsprache (wie Perl, PHP) oder eine Serverprogrammiersprache (wie JSP oder ASP.NET) umstellen will (natürlich ist die Liste fern von Vollständigkeit, Christian). Und deshalb hat sie keine Sessions, keinen Sessionspeicher und kann demzufolge serverseitiges dynamisches Verhalten hinbekommen.

              Rolf

              --
              sumpsi - posui - clusi
              1. Hallo Rolf B,

                du solltest für jede Referenz auf dein Framework 5€ auf das Self-Spendenkonto einzahlen, dann ist der Self-Verein schnell reich 😂.

                Ja, es nervt manchmal wirklich.

                Bis demnächst
                Matthias

                --
                Pantoffeltierchen haben keine Hobbys.
              2. Hallo Rolf,

                (natürlich ist die Liste fern von Vollständigkeit, Christian).

                Ich stehe auf dem Schlauch – warum sprichst du mich hier direkt an? 🤔

                Oder meinst du einen anderen Christian?

                LG,
                CK

                1. Hallo Christian,

                  nein, ich meinte Dich. Weil das CForum mit keinem Tool aus dieser Liste gebaut ist und ich wollte einem "Es gibt auch noch Ruby" zuvorkommen…

                  Rolf

                  --
                  sumpsi - posui - clusi
                  1. Hallo Rolf,

                    nein, ich meinte Dich. Weil das CForum mit keinem Tool aus dieser Liste gebaut ist und ich wollte einem "Es gibt auch noch Ruby" zuvorkommen…

                    Hehe. Wäre mir im Traum nicht eingefallen, das zu antworten. Ich bin da nicht religiös und es war offensichtlich, dass du nur ein paar Beispiele genannt hast.

                    Mache ich den Eindruck da religiös unterwegs zu sein?

                    LG,
                    CK

                    1. Hallo,

                      Ich bin da nicht religiös ...

                      Mache ich den Eindruck da religiös unterwegs zu sein?

                      du meinst fanatisch...

                      Gruß
                      Kalk

                      1. Hallo Tabellenkalk,

                        Ich bin da nicht religiös ...

                        Mache ich den Eindruck da religiös unterwegs zu sein?

                        du meinst fanatisch...

                        Nein, ich meinte religiös. Fanatisch kann einen sachlichen Hintergrund haben. Das fanatische versteifen auf einen Technologie-Stack hat keinen sachlichen Hintergrund und fußt auf einem irrationalen Glauben. Deshalb habe ich hier absichtlich das Wort „religiös“ gewählt.

                        LG,
                        CK

                        1. Hallo Christian,

                          nein, ich hatte nicht den Eindruck, dass Du religiöser Rubyaner bist. So war es nicht gemeint.

                          Rolf

                          --
                          sumpsi - posui - clusi
                          1. Hallo Rolf,

                            nein, ich hatte nicht den Eindruck, dass Du religiöser Rubyaner bist. So war es nicht gemeint.

                            Dann bin ich beruhigt 😀

                            LG,
                            CK

              3. Wie schon gesagt und auch gezeigt: Ein Loginsystem ist hier die bessere Alternative zu Auth.Basic!

                Aber das hast Du wohl in Deiner blinden Wut auf mein Framework nicht ganz so richig verstanden. MfG

                1. Hallo pl,

                  nein, das habe ich durchaus verstanden. Aber du hast in der blinden Wut, dass jemand gegen dein FW gestichelt[1] hat, vielleicht bei mir was übesehen. Dass nämlich ein Form-basierendes Login-System voraussetzt, dass serverseitige Logik bereitsteht. Es sei denn, der Apache ist schlauer als der IIS. Zumindest im IIS kann ich ohne serverseitige Programmierung (und Sessions) einen per Login geschützten Bereich nur über Filesystem-Berechtigungen und HTTP Status Challenges erreichen.

                  Rolf

                  --
                  sumpsi - posui - clusi

                  1. was ein kleiner Unterschied zu blinder Wut ist 😉 ↩︎

                  1. dass jemand gegen dein FW gestichelt hat..

                    Kein Problem, ist wahrscheinlich nur Neid. MfG

                2. Hallo pl,

                  blinde Wut sieht anders aus, sogar bei mir.

                  Und wie gesagt: Ein Loginsystem ohne HTTP Challenges setzt serverseitigen Code voraus. Damit ist Jeannie nach eigenem Bekunden überfordert. Eine Umstellung auf fertige CMS ist auch nicht so einfach.

                  Die Frage, warum ein SEO Tool Links auf Auth.Basic geschützte Seiten ansieht, wird davon auch nicht beantwortet. Aus meiner Sicht macht Seobility hier was falsch.

                  Rolf

                  --
                  sumpsi - posui - clusi
          2. Oh nein 😩 Ich habe eine managed server 😢 Was kann ich bloß machen dagegen? Ich bin über jeden Vorschlag ganz 😀 Im Moment bin ich dabei jeder einzelne Seite neu zu schreiben mit title und description, weil sie irgenwann rausgenommen worden als die Seite monil freundlich gemacht würde und über eine template jetzt läuft. Bei 1300 Übungen ist das schon viel arbeit, wenn mann es manuell macht. Ich habe einfach das Gefuhl gegen eine Mühle zu laufen weil ich nicht viel dabei erreiche. Früher lief das alles top und seit ein paar Jahren nicht mehr, wobei ich selber sehr viele Fehler selber eingebaut habe 😢 Lg Jeannie

            1. Hallo jeannie61,

              wenn Du selbst nichts beeinflussen kannst - oder nur nicht weißt, wie das geht - wäre das ein Fall für den Server-Support. Dafür bezahlst Du schließlich: dass die die Dinge tun, die Du nicht tun kannst/sollst/willst. Eine HTTP 401 Seite mit einem sedoparking-Script ist definitiv ein Bug.

              Rolf

              --
              sumpsi - posui - clusi
              1. Vielen Dank Rolf 👍 Also meine webseite ist auf eine managed server bei 1und1. Die Seite habe ich alles per Hand geschrieben und von daher nicht in wordpress oder sowas, wo man schnell etwas ändern kann. Oob sie support geben , weiss ich nicht. Soll ich einfach anrufen und dem erzählen was ist? Ich arbeite im moment mit seobility um meine Fehlern auszu merzen und er sagt mir, dass alle meine Übungspass Seiten eine 401 status haben. Das hat der resultat, dass die Seite über 1000 Seiten mit 401 Satus haben 🙈 und somit schwere Technische Fehlern. Jeannie

                1. Hallo jeannie61,

                  es wäre vielleicht sinnvoll, bei Seobility nachzufragen, warum sie das als Fehler melden.

                  Sie haben eine Telefonnummer und eine Mailadresse.

                  Rolf

                  --
                  sumpsi - posui - clusi
                  1. Das werde ich dann heute machen. Eigentlich verstehe ich nicht warum sie als 401 angezeigt werden, weil meine Úbungspass Seiten werden auf eine bestimmte Seite geleitet, genau wie meine PDF Dateien. Sie landen also nicht auf eine leere oder kaputte Seite. Meine Übungen werden auch auf eine bestimmte Seite geleitet ohne als 401 fehler aufzutauchen.

                    Danke Jeannie

                    1. Das werde ich dann heute machen. Eigentlich verstehe ich nicht warum sie als 401 angezeigt werden, weil meine Úbungspass Seiten werden auf eine bestimmte Seite geleitet, genau wie meine PDF Dateien. Sie landen also nicht auf eine leere oder kaputte Seite. Meine Übungen werden auch auf eine bestimmte Seite geleitet ohne als 401 fehler aufzutauchen.

                      Wie ich hier schon schrieb: 401 ist kein Fehler. Und auch kein Bug!

                      MfG

            2. Was hast Du denn an meinem Vorschlag nicht verstanden? Also nochmal: Verzichte auf Auth.Basic und baue Dir ein Loginsystem! MfG

              1. @pl Meinst du ich habe das Problem, weil ich bei 1und 1s meine Passwörter generiere? Wäre das anders, wenn ich meine eigener login system bauen würde? Du darfst nicht vergessen, dass du mit eine absolute Amateur hier redest 🤔. Vielleicht könntest du mir, das was du schriebst, anders erzählen- zumal ich auch Engländerin bin. Jeannie 👍

                1. zumal ich auch Engländerin bin.

                  Das meist Geschriebene ist doch sowieso in Englisch. Ich kann Dir aber auch einen Artikel in Deutsch anbieten zum Thema.

                  MfG

                  1. Danke,ich werde es mir heute durchlesen. Ich kann Deutsch sehr gut verstehen,nur ans schreiben happert es 🙈 Sollte ich trotzdem bei 1 und 1s anrufen und sagen da ist ein bug 🕷 in mein 401?

                    1. 401 ist kein Bug. Das ist der Status den ein Webserver sendet um Authorization Basic anzufordern. Aber davon willst Du ja wegkommen. MfG

                      1. und was kann ich machen, um diese Zeit der Umstellung zu lösen? Im Moment verbessere ich alle meine Seiten aber seobility sagt mir in Sachen technik ändert sich gar nichts. Mein SEO ist aber sehr gut geworden - allerdings habe ich noch einige hundert Seiten manuel zu ändern ;-)

                        1. Also mal ehrlich, für eine Handvoll Seiten mag das gut und praktikabel sein, aber für einige 100 oder gar 1000 Seiten ein Authorization Basic zu konfigurieren, das ist reichlich ungeschickt. MfG

                      2. Hallo pl,

                        401 ist kein Bug.

                        das habe ich auch nicht behauptet. Aber die Gestaltung der HTTP Response, die den 401er begleitet, und wo über document.write Script generiert wird, das auf sedoparking verweist, DAS ist auf jeden Fall sehr merkwürdig.

                        Aber davon willst Du ja wegkommen.

                        Du willst das. Ob Jeannie das mit vertretbarem Aufwand will und kann, ist offen.

                        Rolf

                        --
                        sumpsi - posui - clusi
                        1. Hi Rolf,

                          falls Du es noch nicht bemerkt haben solltest:

                          Mit Deiner Aussage bez. Status 401 hast Du den OP ziemlich verwirrt.

                          MfG

                          1. Hallo pl,

                            was aber leider nichts an dem Fakt ändert, dass die Seite außer der HTTP 401 Challenge noch HTML und JavaScript ausliefert, das sehr fragwürdig ist. Der Browser führt diesen Code aus. Selbst wenn die SEO-Analyse sich nur über den 401er aufregt, gehört das saniert.

                            Rolf

                            --
                            sumpsi - posui - clusi
                            1. Also wenn ich jetzt in mein Robot.txt sowas schreibe:

                              User-agent: *
                              Disallow:/uebungpass/
                              

                              reicht das, das ich versuche diese unterordner nicht crawlen zu lassen? oder muss es:

                              User-agent: *
                              Disallow:/uebungpass.html/
                              

                              Ich habe alles gelesen aber ich komme nicht weiter.

                              Vielen Dank
                              Jeannie

                              1. Hallo jeannie61,

                                User-agent: *
                                Disallow:/uebungpass/
                                

                                reicht das, das ich versuche diese unterordner nicht crawlen zu lassen? oder muss es:

                                Das reicht. Falls der Ordner uebungspass direkt über https://example.com/uebungspass/ erreichbar ist. Anderenfalls

                                User-agent: * 
                                Disallow: /path/to/uebungspass/
                                
                                User-agent: *
                                Disallow:/uebungpass.html/
                                

                                Das ist falsch.

                                Bis demnächst
                                Matthias

                                --
                                Pantoffeltierchen haben keine Hobbys.
                                1. Hallo Matthias, so direkt ist es nicht, denn die Seite ist:

                                  https://kico4u.de/english/uebungen/uebungpass.html

                                  Also lieber: Disallow: /path/to/uebungpass/

                                  1. Hallo jeannie61,

                                    https://kico4u.de/english/uebungen/uebungpass.html

                                    Also lieber: Disallow: /path/to/uebungpass/

                                    Das passt auch nicht, denn das ist ja nur eine einzige Datei.

                                    Disallow: /english/uebungen/uebungpass.html

                                    verbietet lediglich das Indexieren von dieser einen Datei.

                                    Du möchtest aber alle Dateien vom Index ausschließen, die hinter der Paywall liegen.

                                    Bis demnächst
                                    Matthias

                                    --
                                    Pantoffeltierchen haben keine Hobbys.
                                    1. Also das was du geschrieben hast?

                                      Disallow: /english/uebungen/uebungpass.html

                                      Oder nicht?

                                      Was kann ich machen 🙈

                                      1. Hallo Jeannie,

                                        @Matthias Apsel hat geschrieben:

                                        Also lieber: Disallow: /path/to/uebungpass/ Das passt auch nicht, denn das ist ja nur eine einzige Datei.

                                        Das ist ein Irrtum, denn ein Disallow-Eintrag mit / am Ende bezeichnet einen Ordner. Demnach sollte

                                        User-agent: *
                                        Disallow: /english/uebungen/uebungspass/
                                        

                                        tun, was Du willst. Die Seiten, die außerhalb von uebungspass/ stehen, sind immer noch im Index. Ob Seobility das dann immer noch als Fehler meldet, muss man gucken.

                                        Rolf

                                        --
                                        sumpsi - posui - clusi
                                        1. Hallo Rolf, Also du meinst ich sollte

                                          User-agent: * Disallow: /english/uebungen/uebungspass/

                                          Probieren?

                                          1. Hallo jeannie61,

                                            User-agent: *
                                            Disallow: /english/uebungen/uebungspass/
                                            

                                            Ja.

                                            Bis demnächst
                                            Matthias

                                            --
                                            Pantoffeltierchen haben keine Hobbys.
                                            1. Super ☀️ Vielen Dank ihr beiden 😉

                                              Jeannie

                                            2. Hallo

                                              User-agent: *
                                              Disallow: /english/uebungen/uebungspass/
                                              

                                              Ja.

                                              Nein.

                                              Wenn der Pfad zu der Datei https://kico4u.de/english/uebungen/uebungpass.html lautet [1] und das ganze Verzeichnis nicht indexiert werden soll, dann ist …

                                              User-agent: *
                                              Disallow: /english/uebungen/
                                              

                                              … der richtige Eintrag.

                                              Wenn hingegen nur diese eine Datei vor Indexierung geschützt werden soll, ist …

                                              User-agent: *
                                              Disallow: /english/uebungen/uebungpass.html
                                              

                                              … der richtige Eintrag.

                                              Tschö, Auge

                                              --
                                              Eine Kerze stand [auf dem Abort] bereit, und der Almanach des vergangenen Jahres hing an einer Schnur. Die Herausgeber kannten ihre Leser und druckten den Almanach auf weiches, dünnes Papier.
                                              Kleine freie Männer von Terry Pratchett

                                              1. Wie es jeannie61 in diesem Posting angegeben hat. ↩︎

                                              1. Hallo Auge,

                                                wenn wir die Struktur der site kennen würden, können wir das Umherraten einstellen.

                                                Bis demnächst
                                                Matthias

                                                --
                                                Pantoffeltierchen haben keine Hobbys.
                                              2. Hallo Auge,

                                                auf der Seite https://kico4u.de/english/uebungen/5klasse/index.html heißt es: "Die Übungen die mit 🎏 versehen worden sind, sind Passwort geschützt. Eine dieser Übungen ist https://kico4u.de/english/uebungen/uebungpass/5klasse/hello.htm

                                                Ich vermute, alles unterhalb von uebungspass soll nicht indexiert werden

                                                User-Agent: *
                                                Disallow: /english/uebungen/uebungpass/
                                                

                                                Bis demnächst
                                                Matthias

                                                --
                                                Pantoffeltierchen haben keine Hobbys.
                                                1. Hallo

                                                  Eine dieser Übungen ist https://kico4u.de/english/uebungen/uebungpass/5klasse/hello.htm

                                                  Ich vermute, alles unterhalb von uebungspass soll nicht indexiert werden

                                                  Also lautet der Pfadname* doch noch anders. Sehr verwirrend.

                                                  Tschö, Auge

                                                  * Edit der besseren Verständlichkeit halber

                                                  --
                                                  Eine Kerze stand [auf dem Abort] bereit, und der Almanach des vergangenen Jahres hing an einer Schnur. Die Herausgeber kannten ihre Leser und druckten den Almanach auf weiches, dünnes Papier.
                                                  Kleine freie Männer von Terry Pratchett
                                                2. Hallo Matthias,

                                                  da ich vorher auf der Seite herumgeklickt hatte, habe ich das gewusst und deswegen meinen Vorschlag exakt so gemacht wie er da stand.

                                                  Die Verwirrung bestand, weil hier im Thread immer wieder von /english/uebungen/uebungspass.html die Rede war. Diese Datei gibt's aber überhaupt nicht.

                                                  Nach allem, was ich erkennen kann, ist die Site so aufgebaut, dass der Zugriffsschutz auf dem uebungspass-ORDNER liegt und alles, was darin ist, das Passwort braucht.

                                                  Rolf

                                                  --
                                                  sumpsi - posui - clusi
  4. Hi,

    weil's noch keiner erwähnt hat:

    Soweit mir bekannt (und eine Suche scheint das zu bestätigen), heißt die Datei robots.txt (mit s), nicht robot.txt (ohne s).

    cu,
    Andreas a/k/a MudGuard

    1. Hallo,

      (mit s) (ohne s).

      Eine weitere Verwirrung entsteht durch uneinheitliche Verwendung des Ordnernamens „uebung-s-pass“…

      Gruß
      Kalk

      1. Hallo Tabellenkalk,

        Eine weitere Verwirrung entsteht durch uneinheitliche Verwendung des Ordnernamens „uebung-s-pass“…

        Soll ja auch s-pass machen.

        Bis demnächst
        Matthias

        --
        Pantoffeltierchen haben keine Hobbys.
        1. Hallo,

          Soll ja auch s-pass machen.

          Dann sind wir aber beim ss…

          Gruß
          Kalk

          1. Ich habe ein "s" zuviel hier reingesetzt, ist mir aber sofort aufgefallen als sich nichts änderte beim suchmaschine.

            Also Jungs wir haben es geschafft 😀 😀 Seobility sieht mein Seite als viel besser jetzt an, nachdem wir das gelöst haben mit der Robot.txt:

            Ein richtige durchbruch. Jezt muss ich nur noch ein paar Übungen mit title und description weiter manuell machen und dann ist auch content gut 😀

            Ich bedanke mich recht herzlich - was würde ich ohne euch machen 😀 Danke, Eure Jeannie

            1. Hallo jeannie61,

              Ich habe ein "s" zuviel hier reingesetzt, ist mir aber sofort aufgefallen als sich nichts änderte beim suchmaschine.

              Nein - eins zu wenig.

              Bis demnächst
              Matthias

              --
              Pantoffeltierchen haben keine Hobbys.
              1. Warum eins zu wenig? Der Ordner heisst uebungpass

                1. Hallo jeannie61,

                  Warum eins zu wenig?

                  Die Datei heißt robots.text. Du schreibst immer robot.txt.

                  Bis demnächst
                  Matthias

                  --
                  Pantoffeltierchen haben keine Hobbys.
                  1. Ah, okay, aber auf meine webseite ist es richtig 😉

                  2. Hallo Matthias,

                    Die Datei heißt robots.text.

                    Da ist ein e zu viel 😉

                    LG,
                    CK

                    1. Hallo Christian Kruse,

                      Die Datei heißt robots.text.

                      Da ist ein e zu viel 😉

                      Ups.

                      Bis demnächst
                      Matthias

                      --
                      Pantoffeltierchen haben keine Hobbys.
                2. Warum eins zu wenig? Der Ordner heisst uebungpass. Wenn ich es jetzt üebungspass nennen würde, würde ich eine tierische Arbeit haben und es ist nicht notwendig, oder habe ich etwas falsch verstanden?

                  1. Hallo,

                    Warum eins zu wenig? Der Ordner heisst uebungpass. Wenn ich es jetzt üebungspass nennen würde, würde ich eine tierische Arbeit haben und es ist nicht notwendig, oder habe ich etwas falsch verstanden?

                    Es gibt kein Wort „Übungpass“. Korrekt wäre „Übungspass“ oder „Übungsspaß“ (in bestimmten Gegenden natürlich auch „Übungsspass“)

                    Gruß
                    Kalk

                    1. In diesen Fall ist es egal wie der Ordner heisst, weil es sonst keine interessiert 😉

                      1. Hallo jeannie61,

                        In diesen Fall ist es egal wie der Ordner heisst, weil es sonst keine interessiert 😉

                        Nicht ganz. Es gibt immer wieder mal Leute, die sich auch die Linkziele anschauen.

                        Bis demnächst
                        Matthias

                        --
                        Pantoffeltierchen haben keine Hobbys.
                        1. Aber es ist in der Bezahlbare Bereich und sie können mir dann persönlich ansprechen. Anderen sehen es nicht ;-) - Uasserdem bin ich froh, wenn ich die andere 300 Seiten erst fertig haben 😉

                          1. Hallo jeannie61,

                            Jeder sieht es, der sich das Linkziel anschaut, das aus dem frei zugänglichen Bereich in den Bezahlbereich führt.

                            Bis demnächst
                            Matthias

                            --
                            Pantoffeltierchen haben keine Hobbys.
                            1. Hallo Matthias,

                              hast Du wieder Gunnariol Forte genommen?

                              Rolf

                              --
                              sumpsi - posui - clusi
                              1. Hi,

                                hast Du wieder Gunnariol Forte genommen?

                                Das ist doch viel zu bitters, Mann!

                                cu,
                                Andreas a/k/a MudGuard