online 1
gast (50)

/ Forum / Webseiten/HTML

Webseiten/HTMLWebseiten/HTML

Fragevon Gregor783 vom 02.10.2021, 15:08 Options

Google: robots.txt-Änderungen werden nicht übernommen

Hallo,

um Duplicate Content im Google-Index zu vermeiden habe ich vor kurzem meine robots.txt angepasst:

z.B.
Disallow: /node/
Disallow: /en/node/
Disallow: /de/node
Disallow: /aggregator/
Disallow: /en/aggregator/
Disallow: /de/aggregator/

Diese doppelten Seiten befinden sich aber immer noch im Index, auch findet man mit Google ein paar 404-Seiten. Muss ich einfach noch etwas warten, bis Google diese Seiten wieder entfernt oder muss ich sonst noch etwas tun?

Gruß


Antwort schreiben

Antwort 1 von gast42 vom 02.10.2021, 15:42 Options

Geduld reicht!

Die 404er solltest du allerdings durch serverseitige Weiterleitungen abfangen.

Antwort 2 von Gregor783 vom 03.10.2021, 17:03 Options

Ok, danke!

Ähnliche Themen

Robot.txt
ilcapitano  30.08.2008 - 4 Hits - 5 Antworten

Hinweis

Diese Frage ist schon etwas älter, Sie können daher nicht mehr auf sie antworten. Sollte Ihre Frage noch nicht gelöst sein, stellen Sie einfach eine neue Frage im Forum..

Neue Einträge

Version: supportware 1.9.150 / 10.06.2022, Startzeit:Thu Jan 8 21:07:44 2026