OK... also mal ehrlich. Suchmaschinen durchsuchen nicht nur URLs sondern auch Verzeichnisse -> ist also schon mal schlecht.
Und wenn eine Internettseite aus 1000 Ordnern besteht, von denen man 999 schützen muß, ist das ziemlich fragwürdige Arbeit. Das ist der Stoff aus dem die Fehlermeldungen sind. Wenn dann noch Verzeichnisse geschützt werden und wahrscheinlich noch mit relativen Links gearbeitet wir, dann wird so eine Internetseite richtig spannend.
Ich kenne keinen anderen Weg für Dein Problem. Und es entspricht auch sicherlich nicht der Grundidee des Webs bzw. der Serverstruktur solche Schutzverzeichnisse direkt im Root anzulegen.
Wobei Du ja selbst gesagt hast, dass das keine geeignete Schutzmassnahme darstellt. Dann lieber direkt richtig machen, anstatt immer wieder beipfuschen. Langfristig wäre eine "ordentliche" Ordnerstruktur sicherlich die bessere Lösung. Bitte nicht persönlich nehmen, ist halt meine Meinung.