.htaccess
bearbeitet von Sanddorn22Hi @@Julius,
habe mir übers verlängerte Wochenende etwas Ruhe gegönnt, daher die verspätete Rückmeldung.
> ... ich glaube nicht, dass Google dann auf die Idee kommt, die Inhalte zu crawlen und dann als Duplicate-Content abzutun. (...) Im Moment vermutest du ja nur, dass das ein Problem sein könnte.
Ja, damit hast Du Recht. Im Moment liegen bei mir die Nerven blank. Durch den Totalabsturz in den Suchergebnissen bin ich eben zum Handeln einfach gezwungen. Und so kam ich nach ausführlicher Recherche darauf, welche verschiedenen "technischen Aspekte" ungewollt (bei Goo...) zur Bewertung "duplicate content" führen können.
Bei Bing, Yahoo und Co taucht meine Seite nach wie vor "on the top" auf.
Die Konfiguration bezüglich Domainaufruf mit und ohne "www." und der "Nebendomains" habe ich mittlerweile ja behoben (zumindest sagt das von mir verwendete Seo-Tool dies aus). Googlebot hat die Seite offenbar auch neu gecrawlt (zumindest ist eine Änderung im Beschreibungstext nun auch in den Suchergebnissen so zu finden). Die Platzierung in den Suchergebnissen hat sich aber kaum merklich verbessert.
> Hast du dir mal die Google Search Console angesehen?
Die ehemaligen "webmastertools", meinst Du? Nein, habe ich nicht.
Grund: Ich bin überhaupt kein Freund von Goo.... und dem Ausspähen der Nutzer. Daher habe ich bisher sowohl auf ein dortiges Konto, als auch auf ein Einbinden von Goo... Analy.... auf meiner Webseite verzichtet. Ich finde es auch grauslig, dass über 80% der Nutzer auf diese Suchmaschine fixiert sind. Leider bin ich darauf angewiesen, eben auch dort gefunden zu werden. Bis vor einem viertel Jahr hat das ja auch wunderbar geklappt.
Kann man das, was ich über die Search Cons. nachschauen, bzw. konfigurieren kann, nicht auch mit "herkömmlichen Mitteln" (ohne Sear. Cons.) erreichen? Wie "entscheidend" ist es, die Sear. Cons. zu nutzen, um die Seite wirklich nachhaltig wieder nach vorne zu bekommen?
Oder dauert das nach einem Totalabsturz einfach eine ganze Weile, weil Goo.. die betreffende Seite erstmal als "verbrannte Erde" bewertet?
.htaccess
bearbeitet von Sanddorn22Hi @@Julius,
habe mir übers verlängerte Wochenende etwas Ruhe gegönnt, daher die verspätete Rückmeldung.
> ... ich glaube nicht, dass Google dann auf die Idee kommt, die Inhalte zu crawlen und dann als Duplicate-Content abzutun. (...) Im Moment vermutest du ja nur, dass das ein Problem sein könnte.
Ja, damit hast Du Recht. Im Moment liegen bei mir die Nerven blank. Durch den Totalabsturz in den Suchergebnissen bin ich eben zum Handeln einfach gezwungen. Und so kam ich nach ausführlicher Recherche darauf, welche verschiedenen "technischen Aspekte" ungewollt (bei Goo...) zur Bewertung "duplicate content" führen können.
Bei Bing, Yahoo und Co taucht meine Seite nach wie vor "on the top" auf.
Die Konfiguration bezüglich Domainaufruf mit und ohne "www." und der "Nebendomains" habe ich mittlerweile ja behoben (zumindest sagt das von mir verwendete Seo-Tool dies aus). Googlebot hat die Seite offenbar auch neu gecrawlt (zumindest ist eine Änderung im Beschreibungstext nun auch in den Suchergebnissen so zu finden). Die Platzierung in den Suchergebnissen hat sich aber kaum merklich verbessert.
> Hast du dir mal die Google Search Console angesehen?
Die ehemaligen "webmastertools", meinst Du? Nein, habe ich nicht.
Grund: Ich bin überhaupt kein Freund von Goo.... und dem Ausspähen der Nutzer. Daher habe ich bisher sowohl auf ein dortiges Konto, als auch auf ein Einbinden von Goo... Analy.... auf meiner Webseite verzichtet. Ich finde es auch grauslig, dass über 80% der Nutzer auf diese Suchmaschine fixiert sind. Leider bin darauf angewiesen, eben auch dort gefunden zu werden. Bis vor einem viertel Jahr hat das ja auch wunderbar geklappt.
Kann man das, was ich über die Search Cons. nachschauen, bzw. konfigurieren kann, nicht auch mit "herkömmlichen Mitteln" (ohne Sear. Cons.) erreichen? Wie "entscheidend" ist es, die Sear. Cons. zu nutzen, um die Seite wirklich nachhaltig wieder nach vorne zu bekommen?
Oder dauert das nach einem Totalabsturz einfach eine ganze Weile, weil Goo.. die betreffende Seite erstmal als "verbrannte Erde" bewertet?
.htaccess
bearbeitet von Sanddorn22Hi @@Julius,
habe mir übers verlängerte Wochenende etwas Ruhe gegönnt, daher die verspätete Rückmeldung.
> ... ich glaube nicht, dass Google dann auf die Idee kommt, die Inhalte zu crawlen und dann als Duplicate-Content abzutun. (...) Im Moment vermutest du ja nur, dass das ein Problem sein könnte.
Ja, damit hast Du Recht. Im Moment liegen bei mir die Nerven wirklich blank. Durch den Totalabsturz in den Suchergebnissen bin ich eben zum Handeln wirklich gezwungen. Und so kam ich nach ausführlicher Recherche darauf, welche verschiedenen "technischen Aspekte" ungewollt (bei Goo...) zur Bewertung "duplicate content" führen können.
Bei Bing, Yahoo und Co taucht meine Seite nach wie vor "on the top" auf.
Die Konfiguration bezüglich Domainaufruf mit und ohne "www." und der "Nebendomains" habe ich mittlerweile ja behoben (zumindest sagt das von mir verwendete Seo-Tool dies aus). Googlebot hat die Seite offenbar auch neu gecrawlt (zumindest ist eine Änderung im Beschreibungstext nun auch in den Suchergebnissen so zu finden). Die Platzierung in den Suchergebnissen hat sich aber kaum merklich verbessert.
> Hast du dir mal die Google Search Console angesehen?
Die ehemaligen "webmastertools", meinst Du? Nein, habe ich nicht.
Grund: Ich bin überhaupt kein Freund von Goo.... und dem Ausspähen der Nutzer. Daher habe ich bisher sowohl auf ein dortiges Konto, als auch auf ein Einbinden von Goo... Analy.... auf meiner Webseite verzichtet. Ich finde es auch grauslig, dass über 80% der Nutzer auf diese Suchmaschine fixiert sind. Leider bin darauf angewiesen, eben auch dort gefunden zu werden. Bis vor einem viertel Jahr hat das ja auch wunderbar geklappt.
Kann man das, was ich über die Search Cons. nachschauen, bzw. konfigurieren kann, nicht auch mit "herkömmlichen Mitteln" (ohne Sear. Cons.) erreichen? Wie "entscheidend" ist es, die Sear. Cons. zu nutzen, um die Seite wirklich nachhaltig wieder nach vorne zu bekommen?
Oder dauert das nach einem Totalabsturz einfach eine ganze Weile, weil Goo.. die betreffende Seite erstmal als "verbrannte Erde" bewertet?
.htaccess
bearbeitet von Sanddorn22Hi @@Julius,
habe mir übers verlängerte Wochenende etwas Ruhe gegönnt, daher die verspätete Rückmeldung.
> ... ich glaube nicht, dass Google dann auf die Idee kommt, die Inhalte zu crawlen und dann als Duplicate-Content abzutun. (...) Im Moment vermutest du ja nur, dass das ein Problem sein könnte.
Ja, damit hast Du Recht. Im Moment liegen bei mir die Nerven wirklich blank. Durch den Totalabsturz in den Suchergebnissen bin ich eben zum Handeln wirklich gezwungen. Und so kam ich nach ausführlicher Recherche darauf, welche verschiedenen "technischen Aspekte" ungewollt (bei Goo...) zur Bewertung "duplicate content" führen können.
Bei Bing, Yahoo und Co taucht meine Seite nach wie vor "on the top" auf.
Die Konfiguration bezüglich Domainaufruf mit und ohne "www." und der "Nebendomains" habe ich mittlerweile ja behoben (zumindest sagt das von mir verwendete Seo-Tool dies aus). Googlebot hat die Seite offenbar auch neu gecrawlt (zumindest ist eine Änderung im Beschreibungstext nun auch in den Suchergebnissen so zu finden). Die Platzierung in den Suchergebnissen hat sich aber kaum merklich verbessert.
> Hast du dir mal die Google Search Console angesehen?
Die ehemaligen "webmastertools", meinst Du? Nein, habe ich nicht.
Grund: Ich bin überhaupt kein Freund von Goo.... und dem Ausspähen der Nutzer. Daher habe ich bisher sowohl auf ein dortiges Konto, als auch auf ein Einbinden von Goo... Analy.... auf meiner Webseite verzichtet. Ich finde es auch grauslig, dass über 80% der Nutzer auf diese Suchmaschine fixiert sind. Leider bin darauf angewiesen, eben auch dort gefunden zu werden. Bis vor einem viertel Jahr hat das ja auch wunderbar geklappt.
Kann man das, was ich über die Search Cons. nachschauen, bzw. konfigurieren kann, nicht auch mit "herkömmlichen Mitteln" (ohne Search Cons.) erreichen? Wie "entscheidend" ist es, die Search Console zu nutzen, um die Seite wirklich nachhaltig wieder nach vorne zu bekommen?
Oder dauert das nach einem Totalabsturz einfach eine ganze Weile, weil Goo.. die betreffende Seite erstmal als "verbrannte Erde" bewertet?
.htaccess
bearbeitet von Sanddorn22Hi @@Julius,
habe mir übers verlängerte Wochenende etwas Ruhe gegönnt, daher die verspätete Rückmeldung.
> ... ich glaube nicht, dass Google dann auf die Idee kommt, die Inhalte zu crawlen und dann als Duplicate-Content abzutun. (...) Im Moment vermutest du ja nur, dass das ein Problem sein könnte.
Ja, damit hast Du Recht. Im Moment liegen bei mir die Nerven wirklich blank. Durch den Totalabsturz in den Suchergebnissen bin ich eben zum Handeln wirklich gezwungen. Und so kam ich nach ausführlicher Recherche darauf, welche verschiedenen "technischen Aspekte" ungewollt (bei Goo...) zur Bewertung "duplicate content" führen können.
Bei Bing, Yahoo und Co taucht meine Seite nach wie vor "on the top" auf.
Die Konfiguration bezüglich Domainaufruf mit und ohne "www." und der "Nebendomains" habe ich mittlerweile ja behoben (zumindest sagt das von mir verwendete Seo-Tool dies aus). Googlebot hat die Seite offenbar auch neu gecrawlt (zumindest ist eine Änderung im Beschreibungstext nun auch in den Suchergebnissen so zu finden). Die Platzierung in den Suchergebnissen hat sich aber kaum merklich verbessert.
> Hast du dir mal die Google Search Console angesehen?
Die ehemaligen "webmastertools", meinst Du? Nein, habe ich nicht.
Grund: Ich bin überhaupt kein Freund von Goo.... und dem Ausspähen der Nutzer. Daher habe ich bisher sowohl auf ein dortiges Konto, als auch auf ein Einbinden von Goo... Analy.... auf der Webseite verzichtet. Ich finde es auch grauslig, dass über 80% der Nutzer auf diese Suchmaschine fixiert sind. Leider bin darauf angewiesen, eben auch dort gefunden zu werden. Bis vor einem viertel Jahr hat das ja auch wunderbar geklappt.
Kann man das, was ich über die Search Cons. nachschauen, bzw. konfigurieren kann, nicht auch mit "herkömmlichen Mitteln" (ohne Search Cons.) erreichen? Wie "entscheidend" ist es, die Search Console zu nutzen, um die Seite wirklich nachhaltig wieder nach vorne zu bekommen?
Oder dauert das nach einem Totalabsturz einfach eine ganze Weile, weil Goo.. die betreffende Seite erstmal als "verbrannte Erde" bewertet?
.htaccess
bearbeitet von Sanddorn22Hi @@Julius,
habe mir übers verlängerte Wochenende etwas Ruhe gegönnt, daher die verspätete Rückmeldung.
> ... ich glaube nicht, dass Google dann auf die Idee kommt, die Inhalte zu crawlen und dann als Duplicate-Content abzutun. (...) Im Moment vermutest du ja nur, dass das ein Problem sein könnte.
Ja, damit hast Du Recht. Durch den Totalabsturz in den Suchergebnissen bin ich eben zum Handeln geradezu gezwungen. Und so habe ich dann eben eifrig gelesen und getestet, wo der Hase begraben liegt.
Die Konfiguration bezüglich Domainaufruf mit und ohne "www." und der "Nebendomains" habe ich mittlerweile ja behoben. Googlebot hat die Seite offenbar auch neu gecrawlt (zumindest ist eine Änderung im Beschreibungstext nun auch in den Suchergebnissen nachzulesen). Die Platzierung in den Suchergebnissen hat sich aber kaum merklich verbessert.
> Hast du dir mal die Google Search Console angesehen?
Die ehemaligen "webmastertools", meinst Du? Nein, habe ich nicht.
Ich bin überhaupt kein Freund von Goo.... und dem Ausspähen der Nutzer. Daher habe ich bisher sowohl auf ein dortiges Konto, als auch auf ein Einbinden von Goo... Analy.... auf der Webseite verzichtet. Ich finde es auch grauslig, dass tatsächlich über 80% der Nutzer auf diese SM fixiert sind. Leider ist das aber so und ich bin darauf angewiesen, eben gerade auch dort gefunden zu werden. Bis vor einem viertel Jahr hat das ja auch wunderbar geklappt.
Kann man das, was ich über die Search Cons. nachschauen, bzw. konfigurieren kann, nicht auch mit "herkömmlichen Mitteln" (ohne Search Cons.) erreichen?