maximum
2014-06-24, 23:01:09
Hallo kann ich mittels robots.txt alle Crawler bis auf einen bestimmten von einem Verzeichnis ausschließen? (das sich nicht alle daran halten weiß ich).
Was möchte ich erreichen?
Für alle Crwaler soll alles unterhalb /images/ gesperrt sein, außer für Google. Google darf /images/ crawlen, nur ein bestimmtes Bild namens /images/ablaz.jpg soll tabu sein. (ich weiß, dass es noch noindex gibt, wird auch genutzt)
Ich dachte an sowas:
User-agent: *
Disallow: /images/
User-agent: Googlebot
Allow: /images/
User-agent: Googlebot
Disallow: /images/*bla*.jpg$
Wird das wie gewünscht funktionieren?
Was möchte ich erreichen?
Für alle Crwaler soll alles unterhalb /images/ gesperrt sein, außer für Google. Google darf /images/ crawlen, nur ein bestimmtes Bild namens /images/ablaz.jpg soll tabu sein. (ich weiß, dass es noch noindex gibt, wird auch genutzt)
Ich dachte an sowas:
User-agent: *
Disallow: /images/
User-agent: Googlebot
Allow: /images/
User-agent: Googlebot
Disallow: /images/*bla*.jpg$
Wird das wie gewünscht funktionieren?