tag:forum.selfhtml.org,2005:/self robot.txt – SELFHTML-Forum 2019-02-14T20:21:12Z https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742334#m1742334 jeannie61 2019-02-09T16:54:30Z 2019-02-10T16:29:01Z robot.txt <p>Moin, ich habe mir überlegt, ob ich meine Passwortbereich einfach für google sperren kann, wenn ich es in mein robot text unterbringen?</p> <p>Im Moment sieht es so aus,</p> <pre><code class="block">Sitemap: http://kico4u.de/sitemap.xml User-agent: * Disallow: </code></pre> <p>Aber könnte ich nicht irgendwie sowas machen:</p> <pre><code class="block">Sitemap: http://kico4u.de/sitemap.xml User-agent: * Disallow:/übungspass.de </code></pre> <p>würde google und alle anderen aufhören meine übungspass Seiten zu googeln? Dann würden nicht so viele Fehlmeldungen kommen, oder? Mein übungspass ist ein Passwort geschutzte Ordner.</p> <p>Vielen Dank, Jeannie</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742354#m1742354 Self-Nachtwächter 2019-02-09T21:25:54Z 2019-02-09T21:25:54Z robot.txt <blockquote> <p>würde google und alle anderen aufhören meine übungspass Seiten zu googeln?</p> </blockquote> <p>Manche schon. Aber selbst Google hat mir neulich als Problem mit meiner Seite gemeldet, dass Google eine Seite indexiert habe, die laut robots.txt verboten sei.</p> <p>Ich bin mir unsicher wie und warum das passieren konnte. Die "Sperre" bestand von Anfang an.</p> <p>Aber im Prinzip stimmt das schon.</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742370#m1742370 pl http://rolfrost.de/ddrende.html 2019-02-10T07:12:00Z 2019-02-10T07:12:00Z robot.txt <p>G. meldet dann: Indexiert, obwohl durch robots.txt-Datei blockiert</p> <p>Und anstatt sich darüber zu ärgern könnte man ja auch mal nachdenken wie man sich sowas zunutze machen kann. Darüber hab ich schon vor Jahren hier mal was geschrieben.</p> <p>MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742386#m1742386 Rolf B 2019-02-10T13:29:23Z 2019-02-10T13:29:23Z robot.txt <p>Hallo jeannie61,</p> <p>ich frag mich was ganz anderes: Wenn der Bereich passwortgeschützt ist, wie kommt Google dann dran?</p> <p>Verwendest Du Security By Obscurity? D.h. wer den Pfadnamen weiß, kommt ran? Wenn eine echte Authentication aktiviert ist, sollte Google keine Chance haben.</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742568#m1742568 MudGuard http://www.andreas-waechter.de/ 2019-02-13T08:23:08Z 2019-02-13T08:23:08Z robot.txt <p>Hi,</p> <p>weil's noch keiner erwähnt hat:</p> <p>Soweit mir bekannt (und eine Suche scheint das zu bestätigen), heißt die Datei robots.txt (mit s), nicht robot.txt (ohne s).</p> <p>cu,<br> Andreas a/k/a MudGuard</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742360#m1742360 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-09T22:41:38Z 2019-02-09T22:41:38Z robot.txt <p>Hallo Self-Nachtwächter,</p> <blockquote> <p>Manche schon. Aber selbst Google hat mir neulich als Problem mit meiner Seite gemeldet, dass Google eine Seite indexiert habe, die laut robots.txt verboten sei.</p> </blockquote> <p>Du kannst mit der robots.txt kein Verbot aussprechen, nur die freundliche Bitte äußern, bestimmte Ressourcen nicht zu indexieren.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742383#m1742383 jeannie61 2019-02-10T12:57:10Z 2019-02-10T12:57:10Z robot.txt <p>Also der Ordner um den es geht heisst:</p> <p>................uebungspass.html</p> <p>reicht es wenn ich im robot:</p> <ul> <li>Disallow:/übungspass.html</li> </ul> <p>schreibe oder muss ich noch mehr machen? Es ist eine von viele Ordner den ich auf meine Seite habe.</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742597#m1742597 ursus contionabundo 2019-02-13T10:34:35Z 2019-02-13T10:37:15Z robot.txt +<META NAME="ROBOTS" CONTENT="NOINDEX"> <pre><code class="block language-html"><span class="token tag"><span class="token tag"><span class="token punctuation"><</span>meta</span> <span class="token attr-name">name</span><span class="token attr-value"><span class="token punctuation attr-equals">=</span><span class="token punctuation">"</span>robots<span class="token punctuation">"</span></span> <span class="token attr-name">value</span><span class="token attr-value"><span class="token punctuation attr-equals">=</span><span class="token punctuation">"</span>noindex<span class="token punctuation">"</span></span><span class="token punctuation">></span></span> </code></pre> <p>(<a href="https://webmasters.googleblog.com/2007/03/using-robots-meta-tag.html" rel="nofollow noopener noreferrer">oder die Varianten</a>) sollte man (in Ressourcen vom Content-Type <code>x{0,1}html</code> ZUSÄTZLICH zur robots.txt setzen wenn diese nicht in den Ergebnislisten auftauchen sollen. Die robots.txt hat vor allem die Aufgabe, die "robots" (dazu zählt auch wget) freundlich zu bitten, das Abrufen der darin genannten Ressourcen zu vermeiden.</p> <p>Will man Sicherheit muss man eben, wie bereits ausführlich diskutiert, einen Passwortschutz oder auch ähnliches verwenden. Dabei ist aber ziemlich egal, ob man den mit htaccess oder durch einen eigenen Mechanismus "baut".</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742373#m1742373 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-10T07:26:14Z 2019-02-10T07:26:14Z robot.txt <p>Hallo pl,</p> <blockquote> <p>Darüber hab ich schon vor Jahren hier mal was geschrieben.</p> </blockquote> <p>Aha. Suche: <code>author:hotti body:robots</code>, <a href="https://forum.selfhtml.org/search?utf8=%E2%9C%93&term=author%3Ahotti+body%3Arobots%C2%A7ions%5B%5D=1&start_date%5Bday%5D=10&start_date%5Bmonth%5D=2&start_date%5Byear%5D=1999&stop_date%5Bday%5D=10&stop_date%5Bmonth%5D=2&stop_date%5Byear%5D=2017&order=rank#results" rel="noopener noreferrer">Ergebnis</a></p> <p>Oder ist das auch ein Beitrag, der auf deinen eigenen Wunsch wieder gelöscht wurde? (<a href="https://forum.selfhtml.org/m1740736" rel="noopener noreferrer">https://forum.selfhtml.org/m1740736</a> ff.)</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742384#m1742384 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-10T13:05:59Z 2019-02-10T13:05:59Z robot.txt <p>Hallo jeannie61,</p> <blockquote> <p>Also der Ordner um den es geht heisst:</p> <p>................uebungspass.html</p> </blockquote> <p>Die Punkte gibt es nicht wirklich oder? Ist es ein Ordner oder eine Datei?</p> <blockquote> <p>reicht es wenn ich im robot:</p> <ul> <li>Disallow:/übungspass.html</li> </ul> <p>schreibe</p> </blockquote> <p>Nein. <strong>ue</strong> ist nicht dasselbe wie <strong>ü</strong>.</p> <blockquote> <p>oder muss ich noch mehr machen? Es ist eine von viele Ordner den ich auf meine Seite habe.</p> </blockquote> <p>Mit <code>Disallow: /path/to/uebungspass.html</code> bittest du, lediglich die Datei <code>http://kico4u.de/path/to/uebungspass.html</code> nicht zu indexieren.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742389#m1742389 pl http://rolfrost.de/ddrende.html 2019-02-10T13:38:47Z 2019-02-10T13:38:47Z robot.txt <blockquote> <p>Also der Ordner um den es geht heisst:</p> </blockquote> <p>Für Dich mag das ein Ordner sein. Für GG ist es eine übliche Webressource worin sich evntl. weitere Links befinden denen der Bot selbstverständlich folgen würde. Aber ein Bot wäre kein Bot wenn er dieselben Links nicht auch anderswo finden würde.</p> <p>MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742387#m1742387 pl http://rolfrost.de/ddrende.html 2019-02-10T13:35:15Z 2019-02-10T13:35:15Z robot.txt <p>Natürlich kommt niemand an den Inhalt wenn z.B. Auth Basic vorliegt. Es ist jedoch gut zu wissen, daß GG solche Seiten trotzdem in seinen Index aufnimmt. MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742395#m1742395 jeannie61 2019-02-10T15:06:05Z 2019-02-10T15:07:08Z robot.txt <p>Hallo Rolf, alle suchmaschinen sehen die Seiten als kaputt an, weil die hälfte die Links auf meine Seite führen zum Passwortbereich. Genau diese Links werden als Fehlern angesehen </p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742396#m1742396 pl http://rolfrost.de/ddrende.html 2019-02-10T16:19:00Z 2019-02-10T16:19:00Z robot.txt <blockquote> <p>Hallo Rolf, alle suchmaschinen sehen die Seiten als kaputt an, weil die hälfte die Links auf meine Seite führen zum Passwortbereich. Genau diese Links werden als Fehlern angesehen </p> </blockquote> <p>Da wirds ja Zeit mal über ein anderes Konzept nachzudenken. MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742400#m1742400 Rolf B 2019-02-10T16:43:56Z 2019-02-10T16:45:20Z robot.txt <p>Hallo pl,</p> <p>ja, bei den Suchmaschinen. Ich habe mal ein bisschen da rumgesurft, und wenn eine Suchmaschine eine Website als kaputt bemängelt, weil ein Link auf HTTP Status 401 läuft, dann fände ich das ziemlich dusselig.</p> <p>Wovon ich aber deutlich pissé bin (excuse my french), ist dieser Response-Body der HTTP 401 Message:</p> <pre><code class="block language-html"><span class="token tag"><span class="token tag"><span class="token punctuation"><</span>script</span> <span class="token attr-name">type</span><span class="token attr-value"><span class="token punctuation attr-equals">=</span><span class="token punctuation">"</span>text/javascript<span class="token punctuation">"</span></span><span class="token punctuation">></span></span><span class="token script"><span class="token language-javascript"> document<span class="token punctuation">.</span><span class="token function">write</span><span class="token punctuation">(</span><span class="token string">'<script type="text/javascript" language="JavaScript"'</span> <span class="token operator">+</span> <span class="token string">'src="//sedoparking.com/frmpark/'</span> <span class="token operator">+</span> window<span class="token punctuation">.</span>location<span class="token punctuation">.</span>host <span class="token operator">+</span> <span class="token string">'/'</span> <span class="token operator">+</span> <span class="token string">'1und1parking6'</span> <span class="token operator">+</span> <span class="token string">'/park.js">'</span> <span class="token operator">+</span> <span class="token string">'<\/script>'</span><span class="token punctuation">)</span><span class="token punctuation">;</span> </span></span><span class="token tag"><span class="token tag"><span class="token punctuation"></</span>script</span><span class="token punctuation">></span></span> </code></pre> <p>was zu</p> <pre><code class="block language-html"><span class="token tag"><span class="token tag"><span class="token punctuation"><</span>script</span> <span class="token attr-name">type</span><span class="token attr-value"><span class="token punctuation attr-equals">=</span><span class="token punctuation">"</span>text/javascript<span class="token punctuation">"</span></span> <span class="token attr-name">language</span><span class="token attr-value"><span class="token punctuation attr-equals">=</span><span class="token punctuation">"</span>JavaScript<span class="token punctuation">"</span></span> <span class="token attr-name">src</span><span class="token attr-value"><span class="token punctuation attr-equals">=</span><span class="token punctuation">"</span>//sedoparking.com/frmpark/kico4u.de/1und1parking6/park.js<span class="token punctuation">"</span></span><span class="token punctuation">></span></span><span class="token script"></span><span class="token tag"><span class="token tag"><span class="token punctuation"></</span>script</span><span class="token punctuation">></span></span> </code></pre> <p>aufgelöst wird. Mein Browser zeigt dann an "blocked:other", d.h. das wird als unautorisiertes XSS angesehen und deswegen blockiert.</p> <p>Ich nehme mal an, dass hier die 401-Seite nicht für kico4u angepasst wurde und noch den Inhalt aus der Zeit hat, wo die Domain bei bei Sedo geparkt war. Der Google Crawler erkennt das Parking-Script und regt sich möglicherweise darüber auf.</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742402#m1742402 pl http://rolfrost.de/ddrende.html 2019-02-10T17:03:08Z 2019-02-10T17:03:08Z robot.txt <p>hi,</p> <blockquote> <p>ja, bei den Suchmaschinen. Ich habe mal ein bisschen da rumgesurft, und wenn eine Suchmaschine eine Website als kaputt bemängelt, weil ein Link auf HTTP Status 401 läuft, dann fände ich das ziemlich dusselig.</p> </blockquote> <p>Besser als ein falscher Status ist kein Status. <a href="http://rolfrost.de/fuserlogin.html" rel="nofollow noopener noreferrer">guck mal hier</a> , die ausgetauschen Inhalte wird eine Suchmaschine nie erreichen.</p> <p>MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742411#m1742411 jeannie61 2019-02-10T20:14:31Z 2019-02-10T20:22:54Z robot.txt <p>Oh nein Ich habe eine managed server Was kann ich bloß machen dagegen? Ich bin über jeden Vorschlag ganz Im Moment bin ich dabei jeder einzelne Seite neu zu schreiben mit title und description, weil sie irgenwann rausgenommen worden als die Seite monil freundlich gemacht würde und über eine template jetzt läuft. Bei 1300 Übungen ist das schon viel arbeit, wenn mann es manuell macht. Ich habe einfach das Gefuhl gegen eine Mühle zu laufen weil ich nicht viel dabei erreiche. Früher lief das alles top und seit ein paar Jahren nicht mehr, wobei ich selber sehr viele Fehler selber eingebaut habe Lg Jeannie</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742412#m1742412 Rolf B 2019-02-10T21:40:29Z 2019-02-10T21:40:29Z robot.txt <p>Hallo pl,</p> <p>du solltest für jede Referenz auf dein Framework 5€ auf das Self-Spendenkonto einzahlen, dann ist der Self-Verein schnell reich . Die hier war zwar indirekt, es war aber trotzdem eine.</p> <p>Also - ja klar, wenn die Site von einer Routing Engine getrieben wird, kann man sowas machen.</p> <p>Aber Jeannie hat, wie es aussieht, statisches HTML. Bestenfalls kann sie SSIs einsetzen, wenn sie nicht alles auf eine Scriptsprache (wie Perl, PHP) oder eine Serverprogrammiersprache (wie JSP oder ASP.NET) umstellen will (natürlich ist die Liste fern von Vollständigkeit, Christian). Und deshalb hat sie keine Sessions, keinen Sessionspeicher und kann demzufolge serverseitiges dynamisches Verhalten hinbekommen.</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742413#m1742413 Rolf B 2019-02-10T21:42:01Z 2019-02-10T21:42:01Z robot.txt <p>Hallo jeannie61,</p> <p>wenn Du selbst nichts beeinflussen kannst - oder nur nicht weißt, wie das geht - wäre das ein Fall für den Server-Support. Dafür bezahlst Du schließlich: dass die die Dinge tun, die Du nicht tun kannst/sollst/willst. Eine HTTP 401 Seite mit einem sedoparking-Script ist definitiv ein Bug.</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742422#m1742422 pl http://rolfrost.de/ddrende.html 2019-02-11T06:34:37Z 2019-02-11T06:34:37Z robot.txt <p>Was hast Du denn an meinem Vorschlag nicht verstanden? Also nochmal: Verzichte auf Auth.Basic und baue Dir ein Loginsystem! MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742417#m1742417 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-11T06:24:28Z 2019-02-11T06:24:28Z robot.txt <p>Hallo Rolf B,</p> <blockquote> <p>du solltest für jede Referenz auf dein Framework 5€ auf das Self-Spendenkonto einzahlen, dann ist der Self-Verein schnell reich .</p> </blockquote> <p>Ja, es nervt manchmal wirklich.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742418#m1742418 Christian Kruse https://wwwtech.de/about 2019-02-11T06:26:56Z 2019-02-11T06:26:56Z robot.txt <p>Hallo Rolf,</p> <blockquote> <p>(natürlich ist die Liste fern von Vollständigkeit, Christian).</p> </blockquote> <p>Ich stehe auf dem Schlauch – warum sprichst du mich hier direkt an? </p> <p>Oder meinst du einen anderen Christian?</p> <p>LG,<br> CK</p> <div class="signature">-- <br> <a href="https://wwwtech.de/about" rel="noopener noreferrer">https://wwwtech.de/about</a> </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742423#m1742423 pl http://rolfrost.de/ddrende.html 2019-02-11T06:37:38Z 2019-02-11T06:37:38Z robot.txt <p>Wie schon gesagt und auch gezeigt: Ein Loginsystem ist hier die bessere Alternative zu Auth.Basic!</p> <p>Aber das hast Du wohl in Deiner blinden Wut auf mein Framework nicht ganz so richig verstanden. MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742415#m1742415 jeannie61 2019-02-11T05:29:27Z 2019-02-11T05:40:04Z robot.txt <p>Vielen Dank Rolf Also meine webseite ist auf eine managed server bei 1und1. Die Seite habe ich alles per Hand geschrieben und von daher nicht in wordpress oder sowas, wo man schnell etwas ändern kann. Oob sie support geben , weiss ich nicht. Soll ich einfach anrufen und dem erzählen was ist? Ich arbeite im moment mit seobility um meine Fehlern auszu merzen und er sagt mir, dass alle meine Übungspass Seiten eine 401 status haben. Das hat der resultat, dass die Seite über 1000 Seiten mit 401 Satus haben und somit schwere Technische Fehlern. Jeannie</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742460#m1742460 Rolf B 2019-02-11T09:36:16Z 2019-02-11T09:36:16Z robot.txt <p>Hallo jeannie61,</p> <p>es wäre vielleicht sinnvoll, bei Seobility nachzufragen, warum sie das als Fehler melden.</p> <p>Sie haben eine <a href="https://www.seobility.net/de/faq/" rel="nofollow noopener noreferrer">Telefonnummer und eine Mailadresse</a>.</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742454#m1742454 Rolf B 2019-02-11T09:03:53Z 2019-02-11T09:03:53Z robot.txt <p>Hallo Christian,</p> <p>nein, ich meinte Dich. Weil das CForum mit keinem Tool aus dieser Liste gebaut ist und ich wollte einem "Es gibt auch noch Ruby" zuvorkommen…</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742429#m1742429 jeannie61 2019-02-11T06:57:03Z 2019-02-11T06:57:03Z robot.txt <p>@pl Meinst du ich habe das Problem, weil ich bei 1und 1s meine Passwörter generiere? Wäre das anders, wenn ich meine eigener login system bauen würde? Du darfst nicht vergessen, dass du mit eine absolute Amateur hier redest . Vielleicht könntest du mir, das was du schriebst, anders erzählen- zumal ich auch Engländerin bin. Jeannie </p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742456#m1742456 Rolf B 2019-02-11T09:09:14Z 2019-02-11T09:09:14Z robot.txt <p>Hallo pl,</p> <p>nein, das habe ich durchaus verstanden. Aber du hast in der blinden Wut, dass jemand gegen dein FW gestichelt<sup class="footnote-ref"><a href="#fn1" id="fnref1">[1]</a></sup> hat, vielleicht bei mir was übesehen. Dass nämlich ein Form-basierendes Login-System voraussetzt, dass serverseitige Logik bereitsteht. Es sei denn, der Apache ist schlauer als der IIS. Zumindest im IIS kann ich ohne serverseitige Programmierung (und Sessions) einen per Login geschützten Bereich nur über Filesystem-Berechtigungen und HTTP Status Challenges erreichen.</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> <hr class="footnotes-sep"> <section class="footnotes"> <ol class="footnotes-list"> <li id="fn1" class="footnote-item"><p>was ein kleiner Unterschied zu blinder Wut ist <a href="#fnref1" class="footnote-backref">↩︎</a></p> </li> </ol> </section> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742459#m1742459 Rolf B 2019-02-11T09:33:16Z 2019-02-11T09:33:16Z robot.txt <p>Hallo pl,</p> <p>blinde Wut sieht anders aus, sogar bei mir.</p> <p>Und wie gesagt: Ein Loginsystem ohne HTTP Challenges setzt serverseitigen Code voraus. Damit ist Jeannie nach eigenem Bekunden überfordert. Eine Umstellung auf fertige CMS ist auch nicht so einfach.</p> <p>Die Frage, warum ein SEO Tool Links auf Auth.Basic geschützte Seiten ansieht, wird davon auch nicht beantwortet. Aus meiner Sicht macht Seobility hier was falsch.</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742434#m1742434 pl http://rolfrost.de/ddrende.html 2019-02-11T07:11:40Z 2019-02-11T07:11:40Z robot.txt <blockquote> <p>zumal ich auch Engländerin bin.</p> </blockquote> <p>Das meist Geschriebene ist doch sowieso in Englisch. Ich kann Dir aber auch einen <a href="http://rolfrost.de/session.html" rel="nofollow noopener noreferrer">Artikel in Deutsch</a> anbieten zum Thema.</p> <p>MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742438#m1742438 Jeannie 2019-02-11T07:17:24Z 2019-02-11T07:17:24Z robot.txt <p>Danke,ich werde es mir heute durchlesen. Ich kann Deutsch sehr gut verstehen,nur ans schreiben happert es Sollte ich trotzdem bei 1 und 1s anrufen und sagen da ist ein bug in mein 401?</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742441#m1742441 pl http://rolfrost.de/ddrende.html 2019-02-11T07:29:15Z 2019-02-11T07:29:15Z robot.txt <p>401 ist kein Bug. Das ist der Status den ein Webserver sendet um Authorization Basic anzufordern. Aber davon willst Du ja wegkommen. MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742442#m1742442 jeannie61 2019-02-11T07:45:35Z 2019-02-11T07:45:35Z robot.txt <p>und was kann ich machen, um diese Zeit der Umstellung zu lösen? Im Moment verbessere ich alle meine Seiten aber seobility sagt mir in Sachen technik ändert sich gar nichts. Mein SEO ist aber sehr gut geworden - allerdings habe ich noch einige hundert Seiten manuel zu ändern ;-)</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742461#m1742461 Rolf B 2019-02-11T09:38:42Z 2019-02-11T09:38:42Z robot.txt <p>Hallo pl,</p> <blockquote> <p>401 ist kein Bug.</p> </blockquote> <p>das habe ich auch nicht behauptet. Aber die Gestaltung der HTTP Response, die den 401er begleitet, und wo über document.write Script generiert wird, das auf sedoparking verweist, DAS ist auf jeden Fall sehr merkwürdig.</p> <blockquote> <p>Aber davon willst Du ja wegkommen.</p> </blockquote> <p>Du willst das. Ob Jeannie das mit vertretbarem Aufwand will und kann, ist offen.</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742453#m1742453 pl http://rolfrost.de/ddrende.html 2019-02-11T09:02:30Z 2019-02-11T09:02:30Z robot.txt <p>Also mal ehrlich, für eine Handvoll Seiten mag das gut und praktikabel sein, aber für einige 100 oder gar 1000 Seiten ein Authorization Basic zu konfigurieren, das ist reichlich ungeschickt. MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742455#m1742455 Christian Kruse https://wwwtech.de/about 2019-02-11T09:05:33Z 2019-02-11T09:05:33Z robot.txt <p>Hallo Rolf,</p> <blockquote> <p>nein, ich meinte Dich. Weil das CForum mit keinem Tool aus dieser Liste gebaut ist und ich wollte einem "Es gibt auch noch Ruby" zuvorkommen…</p> </blockquote> <p>Hehe. Wäre mir im Traum nicht eingefallen, das zu antworten. Ich bin da nicht religiös und es war offensichtlich, dass du nur ein paar Beispiele genannt hast.</p> <p>Mache ich den Eindruck da religiös unterwegs zu sein?</p> <p>LG,<br> CK</p> <div class="signature">-- <br> <a href="https://wwwtech.de/about" rel="noopener noreferrer">https://wwwtech.de/about</a> </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742464#m1742464 Tabellenkalk 2019-02-11T10:12:26Z 2019-02-11T10:12:26Z robot.txt <p>Hallo,</p> <blockquote> <p>Ich bin da nicht religiös ...</p> <p>Mache ich den Eindruck da religiös unterwegs zu sein?</p> </blockquote> <p>du meinst fanatisch...</p> <p>Gruß<br> Kalk</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742457#m1742457 pl http://rolfrost.de/ddrende.html 2019-02-11T09:17:14Z 2019-02-11T09:17:14Z robot.txt <blockquote> <p>dass jemand gegen dein FW gestichelt hat..</p> </blockquote> <p>Kein Problem, ist wahrscheinlich nur Neid. MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742512#m1742512 jeannie61 2019-02-12T05:25:43Z 2019-02-12T05:30:59Z robot.txt <p>Das werde ich dann heute machen. Eigentlich verstehe ich nicht warum sie als 401 angezeigt werden, weil meine Úbungspass Seiten werden auf eine bestimmte Seite geleitet, genau wie meine PDF Dateien. Sie landen also nicht auf eine leere oder kaputte Seite. Meine Übungen werden auch auf eine bestimmte Seite geleitet ohne als 401 fehler aufzutauchen.</p> <p>Danke Jeannie</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742463#m1742463 pl http://rolfrost.de/ddrende.html 2019-02-11T09:42:56Z 2019-02-11T09:42:56Z robot.txt <p>Hi Rolf,</p> <p>falls Du es noch nicht bemerkt haben solltest:</p> <p>Mit Deiner Aussage bez. Status 401 hast Du den OP ziemlich verwirrt.</p> <p>MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742481#m1742481 Rolf B 2019-02-11T13:07:53Z 2019-02-11T13:07:53Z robot.txt <p>Hallo pl,</p> <p>was aber leider nichts an dem Fakt ändert, dass die Seite außer der HTTP 401 Challenge noch HTML und JavaScript ausliefert, das sehr fragwürdig ist. Der Browser führt diesen Code aus. Selbst wenn die SEO-Analyse sich nur über den 401er aufregt, gehört das saniert.</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742465#m1742465 Christian Kruse https://wwwtech.de/about 2019-02-11T10:15:23Z 2019-02-11T10:15:23Z robot.txt <p>Hallo Tabellenkalk,</p> <blockquote> <blockquote> <p>Ich bin da nicht religiös ...</p> <p>Mache ich den Eindruck da religiös unterwegs zu sein?</p> </blockquote> <p>du meinst fanatisch...</p> </blockquote> <p>Nein, ich meinte religiös. Fanatisch kann einen sachlichen Hintergrund haben. Das fanatische versteifen auf einen Technologie-Stack hat keinen sachlichen Hintergrund und fußt auf einem irrationalen Glauben. Deshalb habe ich hier absichtlich das Wort „religiös“ gewählt.</p> <p>LG,<br> CK</p> <div class="signature">-- <br> <a href="https://wwwtech.de/about" rel="noopener noreferrer">https://wwwtech.de/about</a> </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742479#m1742479 Rolf B 2019-02-11T13:03:45Z 2019-02-11T13:03:45Z robot.txt <p>Hallo Christian,</p> <p>nein, ich hatte nicht den Eindruck, dass Du religiöser Rubyaner bist. So war es nicht gemeint.</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742480#m1742480 Christian Kruse https://wwwtech.de/about 2019-02-11T13:05:47Z 2019-02-11T13:05:47Z robot.txt <p>Hallo Rolf,</p> <blockquote> <p>nein, ich hatte nicht den Eindruck, dass Du religiöser Rubyaner bist. So war es nicht gemeint.</p> </blockquote> <p>Dann bin ich beruhigt </p> <p>LG,<br> CK</p> <div class="signature">-- <br> <a href="https://wwwtech.de/about" rel="noopener noreferrer">https://wwwtech.de/about</a> </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742540#m1742540 jeannie61 2019-02-12T18:18:08Z 2019-02-12T18:20:03Z robot.txt <p>Also wenn ich jetzt in mein Robot.txt sowas schreibe:</p> <pre><code class="block">User-agent: * Disallow:/uebungpass/ </code></pre> <p>reicht das, das ich versuche diese unterordner nicht crawlen zu lassen? oder muss es:</p> <pre><code class="block">User-agent: * Disallow:/uebungpass.html/ </code></pre> <p>Ich habe alles gelesen aber ich komme nicht weiter.</p> <p>Vielen Dank<br> Jeannie</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742515#m1742515 pl http://rolfrost.de/ddrende.html 2019-02-12T07:35:44Z 2019-02-12T07:35:44Z robot.txt <blockquote> <p>Das werde ich dann heute machen. Eigentlich verstehe ich nicht warum sie als 401 angezeigt werden, weil meine Úbungspass Seiten werden auf eine bestimmte Seite geleitet, genau wie meine PDF Dateien. Sie landen also nicht auf eine leere oder kaputte Seite. Meine Übungen werden auch auf eine bestimmte Seite geleitet ohne als 401 fehler aufzutauchen.</p> </blockquote> <p>Wie ich <a href="https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742441#m1742441" rel="noopener noreferrer">hier schon schrieb</a>: 401 ist kein Fehler. Und auch kein Bug!</p> <p>MfG</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742541#m1742541 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-12T18:50:47Z 2019-02-12T18:50:47Z robot.txt <p>Hallo jeannie61,</p> <blockquote> <pre><code class="block">User-agent: * Disallow:/uebungpass/ </code></pre> <p>reicht das, das ich versuche diese unterordner nicht crawlen zu lassen? oder muss es:</p> </blockquote> <p>Das reicht. Falls der Ordner uebungspass direkt über https://example.com/uebungspass/ erreichbar ist. Anderenfalls</p> <pre><code class="block">User-agent: * Disallow: /path/to/uebungspass/ </code></pre> <blockquote> <pre><code class="block">User-agent: * Disallow:/uebungpass.html/ </code></pre> </blockquote> <p>Das ist falsch.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742542#m1742542 jeannie61 2019-02-12T18:55:55Z 2019-02-12T19:02:00Z robot.txt <p>Hallo Matthias, so direkt ist es nicht, denn die Seite ist:</p> <p>https://kico4u.de/english/uebungen/uebungpass.html</p> <p>Also lieber: Disallow: /path/to/uebungpass/</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742543#m1742543 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-12T19:09:51Z 2019-02-12T19:09:51Z robot.txt <p>Hallo jeannie61,</p> <blockquote> <p>https://kico4u.de/english/uebungen/uebungpass.html</p> <p>Also lieber: Disallow: /path/to/uebungpass/</p> </blockquote> <p>Das passt auch nicht, denn das ist ja nur eine einzige Datei.</p> <p><code>Disallow: /english/uebungen/uebungpass.html</code></p> <p>verbietet lediglich das Indexieren von dieser einen Datei.</p> <p>Du möchtest aber alle Dateien vom Index ausschließen, die hinter der Paywall liegen.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742544#m1742544 Jeannie 2019-02-12T19:25:04Z 2019-02-12T19:26:21Z robot.txt <p>Also das was du geschrieben hast?</p> <p>Disallow: /english/uebungen/uebungpass.html</p> <p>Oder nicht?</p> <p>Was kann ich machen </p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742545#m1742545 Rolf B 2019-02-12T21:41:47Z 2019-02-12T21:41:47Z robot.txt <p>Hallo Jeannie,</p> <p><a href="/users/2" class="mention registered-user" rel="noopener noreferrer">@Matthias Apsel</a> hat geschrieben:</p> <blockquote> <blockquote> <p>Also lieber: Disallow: /path/to/uebungpass/ Das passt auch nicht, denn das ist ja nur eine einzige Datei.</p> </blockquote> </blockquote> <p>Das ist ein Irrtum, denn ein Disallow-Eintrag mit / am Ende <a href="https://wiki.selfhtml.org/wiki/Grundlagen/Robots.txt#Aufbau_einer_robots.txt" rel="nofollow noopener noreferrer">bezeichnet einen Ordner</a>. Demnach sollte</p> <pre><code class="block">User-agent: * Disallow: /english/uebungen/uebungspass/ </code></pre> <p>tun, was Du willst. Die Seiten, die außerhalb von uebungspass/ stehen, sind immer noch im Index. Ob Seobility das dann immer noch als Fehler meldet, muss man gucken.</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742548#m1742548 jeannie61 2019-02-13T05:24:24Z 2019-02-13T05:24:24Z robot.txt <p>Hallo Rolf, Also du meinst ich sollte</p> <p>User-agent: * Disallow: /english/uebungen/uebungspass/</p> <p>Probieren?</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742549#m1742549 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-13T05:51:34Z 2019-02-13T05:51:34Z robot.txt <p>Hallo jeannie61,</p> <blockquote> <pre><code class="block">User-agent: * Disallow: /english/uebungen/uebungspass/ </code></pre> </blockquote> <p>Ja.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742553#m1742553 jeannie61 2019-02-13T07:22:40Z 2019-02-13T07:22:40Z robot.txt <p>Super ☀️ Vielen Dank ihr beiden </p> <p>Jeannie</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742554#m1742554 Auge 2019-02-13T07:25:35Z 2019-02-13T07:27:14Z robot.txt <p>Hallo</p> <blockquote> <blockquote> <pre><code class="block">User-agent: * Disallow: /english/uebungen/uebungspass/ </code></pre> </blockquote> <p>Ja.</p> </blockquote> <p>Nein.</p> <p>Wenn der Pfad zu der Datei <code>https://kico4u.de/english/uebungen/uebungpass.html</code> lautet <sup class="footnote-ref"><a href="#fn1" id="fnref1">[1]</a></sup> und <strong>das ganze Verzeichnis</strong> nicht indexiert werden soll, dann ist …</p> <pre><code class="block">User-agent: * Disallow: /english/uebungen/ </code></pre> <p>… der richtige Eintrag.</p> <p>Wenn hingegen <strong>nur diese eine Datei</strong> vor Indexierung geschützt werden soll, ist …</p> <pre><code class="block">User-agent: * Disallow: /english/uebungen/uebungpass.html </code></pre> <p>… der richtige Eintrag.</p> <p>Tschö, Auge</p> <div class="signature">-- <br> Eine Kerze stand [auf dem Abort] bereit, und der Almanach des vergangenen Jahres hing an einer Schnur. Die Herausgeber kannten ihre Leser und druckten den Almanach auf weiches, dünnes Papier.<br> Kleine freie Männer von Terry Pratchett </div> <hr class="footnotes-sep"> <section class="footnotes"> <ol class="footnotes-list"> <li id="fn1" class="footnote-item"><p>Wie es jeannie61 <a href="https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742542#m1742542" rel="noopener noreferrer">in diesem Posting</a> angegeben hat. <a href="#fnref1" class="footnote-backref">↩︎</a></p> </li> </ol> </section> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742565#m1742565 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-13T07:51:12Z 2019-02-13T07:51:12Z robot.txt <p>Hallo Auge,</p> <p>wenn wir die Struktur der site kennen würden, können wir das Umherraten einstellen.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742571#m1742571 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-13T08:42:52Z 2019-02-13T08:42:52Z robot.txt <p>Hallo Auge,</p> <p>auf der Seite <a href="https://kico4u.de/english/uebungen/5klasse/index.html" rel="nofollow noopener noreferrer">https://kico4u.de/english/uebungen/5klasse/index.html</a> heißt es: "Die Übungen die mit versehen worden sind, sind Passwort geschützt. Eine dieser Übungen ist <code>https://kico4u.de/english/uebungen/uebungpass/5klasse/hello.htm</code></p> <p>Ich vermute, alles unterhalb von uebungspass soll nicht indexiert werden</p> <pre><code class="block">User-Agent: * Disallow: /english/uebungen/uebungpass/ </code></pre> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742595#m1742595 Tabellenkalk 2019-02-13T10:22:47Z 2019-02-13T10:22:47Z robot.txt <p>Hallo,</p> <blockquote> <p>(mit s) (ohne s).</p> </blockquote> <p>Eine weitere Verwirrung entsteht durch uneinheitliche Verwendung des Ordnernamens „uebung-s-pass“…</p> <p>Gruß<br> Kalk</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742574#m1742574 Auge 2019-02-13T09:00:55Z 2019-02-13T10:42:25Z robot.txt <p>Hallo</p> <blockquote> <p>Eine dieser Übungen ist <code>https://kico4u.de/english/uebungen/uebungpass/5klasse/hello.htm</code></p> <p>Ich vermute, alles unterhalb von uebungspass soll nicht indexiert werden</p> </blockquote> <p>Also lautet der Pfad<strong>name*</strong> doch noch anders. Sehr verwirrend.</p> <p>Tschö, Auge</p> <p><strong>*</strong> Edit der besseren Verständlichkeit halber</p> <div class="signature">-- <br> Eine Kerze stand [auf dem Abort] bereit, und der Almanach des vergangenen Jahres hing an einer Schnur. Die Herausgeber kannten ihre Leser und druckten den Almanach auf weiches, dünnes Papier.<br> Kleine freie Männer von Terry Pratchett </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742578#m1742578 Rolf B 2019-02-13T09:10:38Z 2019-02-13T09:10:38Z robot.txt <p>Hallo Matthias,</p> <p>da ich vorher auf der Seite herumgeklickt hatte, habe ich das gewusst und deswegen meinen Vorschlag exakt so gemacht wie er da stand.</p> <p>Die Verwirrung bestand, weil hier im Thread immer wieder von <code>/english/uebungen/uebungspass.html</code> die Rede war. Diese Datei gibt's aber überhaupt nicht.</p> <p>Nach allem, was ich erkennen kann, ist die Site so aufgebaut, dass der Zugriffsschutz auf dem uebungspass-ORDNER liegt und alles, was darin ist, das Passwort braucht.</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742616#m1742616 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-13T13:47:16Z 2019-02-13T13:47:16Z robot.txt <p>Hallo Tabellenkalk,</p> <blockquote> <p>Eine weitere Verwirrung entsteht durch uneinheitliche Verwendung des Ordnernamens „uebung-s-pass“…</p> </blockquote> <p>Soll ja auch s-pass machen.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742617#m1742617 Tabellenkalk 2019-02-13T13:49:24Z 2019-02-13T13:49:24Z robot.txt <p>Hallo,</p> <blockquote> <p>Soll ja auch s-pass machen.</p> </blockquote> <p>Dann sind wir aber beim ss…</p> <p>Gruß<br> Kalk</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742623#m1742623 jeannie61 2019-02-13T17:44:36Z 2019-02-13T17:44:36Z robot.txt <p>Ich habe ein "s" zuviel hier reingesetzt, ist mir aber sofort aufgefallen als sich nichts änderte beim suchmaschine.</p> <p>Also Jungs wir haben es geschafft Seobility sieht mein Seite als viel besser jetzt an, nachdem wir das gelöst haben mit der Robot.txt:</p> <p><a href="/images/ca5d2730-9e91-43d6-9d67-b7aec252116d.jpg" rel="noopener noreferrer"><img src="/images/ca5d2730-9e91-43d6-9d67-b7aec252116d.jpg?size=medium" alt="" loading="lazy"></a></p> <p>Ein richtige durchbruch. Jezt muss ich nur noch ein paar Übungen mit title und description weiter manuell machen und dann ist auch content gut </p> <p>Ich bedanke mich recht herzlich - was würde ich ohne euch machen Danke, Eure Jeannie</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742624#m1742624 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-13T18:00:10Z 2019-02-13T18:00:10Z robot.txt <p>Hallo jeannie61,</p> <blockquote> <p>Ich habe ein "s" zuviel hier reingesetzt, ist mir aber sofort aufgefallen als sich nichts änderte beim suchmaschine.</p> </blockquote> <p>Nein - eins zu wenig.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742625#m1742625 jeannie61 2019-02-13T18:55:13Z 2019-02-13T18:56:49Z robot.txt <p>Warum eins zu wenig? Der Ordner heisst uebungpass</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742626#m1742626 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-13T18:57:42Z 2019-02-13T18:57:42Z robot.txt <p>Hallo jeannie61,</p> <blockquote> <p>Warum eins zu wenig?</p> </blockquote> <p>Die Datei heißt robot<strong>s</strong>.text. Du schreibst immer <code class="bad">robot.txt</code>.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742627#m1742627 jeannie61 2019-02-13T18:58:08Z 2019-02-13T18:58:08Z robot.txt <p>Warum eins zu wenig? Der Ordner heisst uebungpass. Wenn ich es jetzt üebungspass nennen würde, würde ich eine tierische Arbeit haben und es ist nicht notwendig, oder habe ich etwas falsch verstanden?</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742628#m1742628 jeannie61 2019-02-13T18:59:07Z 2019-02-13T18:59:07Z robot.txt <p>Ah, okay, aber auf meine webseite ist es richtig </p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742653#m1742653 Christian Kruse https://wwwtech.de/about 2019-02-14T08:19:41Z 2019-02-14T08:19:41Z robot.txt <p>Hallo Matthias,</p> <blockquote> <p>Die Datei heißt robot<strong>s</strong>.text.</p> </blockquote> <p>Da ist ein <code>e</code> zu viel </p> <p>LG,<br> CK</p> <div class="signature">-- <br> <a href="https://wwwtech.de/about" rel="noopener noreferrer">https://wwwtech.de/about</a> </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742630#m1742630 Tabellenkalk 2019-02-13T19:55:58Z 2019-02-13T19:55:58Z robot.txt <p>Hallo,</p> <blockquote> <p>Warum eins zu wenig? Der Ordner heisst uebungpass. Wenn ich es jetzt üebungspass nennen würde, würde ich eine tierische Arbeit haben und es ist nicht notwendig, oder habe ich etwas falsch verstanden?</p> </blockquote> <p>Es gibt kein Wort „Übungpass“. Korrekt wäre „Übungspass“ oder „Übungsspaß“ (in bestimmten Gegenden natürlich auch „Übungsspass“)</p> <p>Gruß<br> Kalk</p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742651#m1742651 jeannie61 2019-02-14T07:55:10Z 2019-02-14T07:55:10Z robot.txt <p>In diesen Fall ist es egal wie der Ordner heisst, weil es sonst keine interessiert </p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742655#m1742655 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-14T08:23:56Z 2019-02-14T08:23:56Z robot.txt <p>Hallo jeannie61,</p> <blockquote> <p>In diesen Fall ist es egal wie der Ordner heisst, weil es sonst keine interessiert </p> </blockquote> <p>Nicht ganz. Es gibt immer wieder mal Leute, die sich auch die Linkziele anschauen.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742654#m1742654 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-14T08:23:00Z 2019-02-14T08:23:00Z robot.txt <p>Hallo Christian Kruse,</p> <blockquote> <blockquote> <p>Die Datei heißt robot<strong>s</strong>.text.</p> </blockquote> <p>Da ist ein <code>e</code> zu viel </p> </blockquote> <p>Ups.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742684#m1742684 jeannie61 2019-02-14T14:32:10Z 2019-02-14T14:32:10Z robot.txt <p>Aber es ist in der Bezahlbare Bereich und sie können mir dann persönlich ansprechen. Anderen sehen es nicht ;-) - Uasserdem bin ich froh, wenn ich die andere 300 Seiten erst fertig haben </p> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742688#m1742688 Matthias Apsel matthias.apsel@selfhtml.org https://brückentage.info 2019-02-14T15:30:08Z 2019-02-14T15:30:08Z robot.txt <p>Hallo jeannie61,</p> <p>Jeder sieht es, der sich das Linkziel anschaut, das aus dem frei zugänglichen Bereich in den Bezahlbereich führt.</p> <p>Bis demnächst<br> Matthias</p> <div class="signature">-- <br> Pantoffeltierchen haben keine Hobbys. </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742697#m1742697 Rolf B 2019-02-14T20:04:53Z 2019-02-14T20:04:53Z robot.txt <p>Hallo Matthias,</p> <p>hast Du wieder Gunnariol Forte genommen?</p> <p><em>Rolf</em></p> <div class="signature">-- <br> sumpsi - posui - clusi </div> https://forum.selfhtml.org/self/2019/feb/9/robot-punkt-txt/1742699#m1742699 MudGuard http://www.andreas-waechter.de/ 2019-02-14T20:21:12Z 2019-02-14T20:21:12Z robot.txt <p>Hi,</p> <blockquote> <p>hast Du wieder Gunnariol Forte genommen?</p> </blockquote> <p>Das ist doch viel zu bitters, Mann!</p> <p>cu,<br> Andreas a/k/a MudGuard</p>