google url console

Adult Hosting

carat

User
Beiträge
512
Punkte
0
bin gerade etwas verwirrt ...

... wie kann ich den bei der neuen url console oder über webmaster tools urls via robots.txt löschen lassen? - gibt es diese funktion nicht mehr oder übersehe ich diese möglichkeit?
 
Blockieren oder Entfernen von Seiten mithilfe einer robots.txt-Datei

Um alle Seiten in einem bestimmten Verzeichnis (z. B. Lemure) zu entfernen, verwenden Sie den folgenden robots.txt-Eintrag:

User-agent: Googlebot Disallow: /lemure

Zum Entfernen aller Dateien eines bestimmten Dateityps (z. B. .gif) verwenden Sie den folgenden robots.txt-Eintrag:

User-agent: Googlebot Disallow: /*.gif$

Zum Entfernen dynamisch erstellter Seiten verwenden Sie den folgenden robots.txt-Eintrag:

User-agent: Googlebot Disallow: /*?
 
@Enjoy
die frage war nicht wie man das macht, sondern eher wo.

und diese sternchen * kannst du eh vergessen, die frisst er nicht :)


@carat

die konsole find ich auch nichtmehr

scheint jetzt direckt zu laufen.

Anmerkung: Nur das oberste Verzeichnis eines Hosts ist notwendig; Sie brauchen nicht jede einzelne Seite anzugeben. Unser Web-Crawler, Googlebot, findet den Rest. Wichtig: Google aktualisiert seinen Index regelmäßig, so dass die Angabe von aktualisierten oder veralteten Links nicht nötig ist. Tote Links werden entfernt, sobald wir den nächsten Web-Durchgang durchführen und unseren Index aktualisieren.
http://www.google.com/addurl/?hl=de&continue=/addurl

oder ueber die sitemaps

https://www.google.com/webmasters/tools/siteoverview

.
 
hm, die console ist ja noch da, sieht nur anders aus und läuft wohl etwas anders ... bzw. wird auf die webmaster tools verwiesen.

dort gibt es aber auch keine möglichkeit via robots.txt ne masse an urls zu löschen, nur mit eingabe der url(s).

da es aber bei mir ne menge an urls sind, wollte ich * als wildcard nutzen, so wie mans früher in der console via robots.txt machen konnte.

* als wildcard funktioniert aber nicht mehr in den webmaster-tools ... kommt zwar ein ok aber es wird nix ausm index gelöscht!?!?! ausserdem scheints auf 100 urls limitiert zu sein ...

auch ne möglichkeit den index schön gross zu halten für google ... :evil:

habe die seiten zwar auf noindex gesetzt, aber dass dauert monate bis google das peilt, vor allem weil der grossteil im supplemental festhängt und dort eh nur selten aktualisiert wird ...
 
wildcard funktionierte bei mir noch nie in der konsole.
google schrieb es zwar in der anleitung, aber beim absenden um die robots auszulesen brachte er immer eine fehlermeldung.

sag bescheid ob der das nun wirklich so merkt, und tote seiten killt..
 
das mit der wildcard in der robots hatte letztes jahr noch wunderbar funktioniert, war ne saubere und schnelle lösung.

über wm-tools gehts nicht mit wildcard, habe ich vor 2-3 wochen probiert, nur einzel-seiten gehen...

mit noindex im head gehts, aber so lahm, dass google nächstes jahr noch net fertig ist .. heute sind ein paar draussen, morgen wieder da ... geht jetzt seit ca. 2 wochen so das spiel ...

per robots.txt ausperren ist auch nicht die lösung ... die inhalte verschwinden zwar, jedoch bleibt der link im index von google ... und sperre ich per robots, dann schaut sich google die seiten nicht mehr an und sieht das noindex nicht, bzw. ist es ein noindex,follow ... die links auf den seiten sollen ja weiterverfolgt werden ...

... ein teufelskreis! :evil:
 

Erotik Webmaster Forum Dating Affiliates

Zurück
Oben Unten