Robots.txt – 2
Апдейт этого поста о файле robots.txt. Перед блоком disallow запрещающих индексацию страниц не для индексации (служебных, комментарии, rss, чтобы не было склейки) нужно было поставить:
User-agent: *
Что значит: для всех роботов. Эта команда совместима с www.robotstxt.org. Проверить свой robots.txt можно здесь: Robots.txt syntax checker.
Мой правда недоступен. Ниче, проверил на чужих, как эта система работает.
Нашел у некоторых такой прикол:
User-agent: * Disallow:
Что свидетельствует, о том что robots.txt не заполняли. Строка “Disallow:” некорректна, так как не указано что именно не индексировать, нужен хотя бы / – слэш, чтобы ничего не индексировать:) или какую-именно папку. То есть просто “Disallow:” ничего не дает, ни запрета, ни разрешения. Такие дела.
Еще почитать:
Только сейчас сделал robots.txt и sitemap.xml для сайта. Че-то robots.txt в дистрибутив Wordpres ...
Из этой статьи Вы почерпнете много новой информации по теме очень важного для каждого сайта файл ...
В прошлый раз в блоге corumcctv.ru было о файле robots.txt, а сейчас о том, как сделать hum ...
Четыре года назад я завел блог corumcctv.ru чтобы сделать мир лучше чтобы заработать немног ...
Сейчас о том, как перенести сайт на новый хостинг за 10 простых шагов, а в прошлый раз в блоге M ...
На Ваш сайт знакомый в аську ссылку кинул. Оказалось ,что не зря
Понравилось. Тепрь постоянно читать буду
Привет! А можно ли ссылками с вами обменяться?