Seiten über robots.txt sperren
bearbeitet von beatovichhallo
> Idealerweise wird die robots.txt auch nicht von Hand bearbeitet sondern bei Abruf dynamisch erstellt anhand der aktuellen Konfiguration für die gesamte Site (Projektverwaltung). So wird ja in der Konfiguration festgelegt ob für den Abruf einer Seite Credentials erforderlich sind und nicht in der robots.txt
Idealer Weise sollte der robots.txt nicht alle paar Minuten ändern.
KISS
--
<https://beat-stoecklin.ch/pub/index.html>