Спасибо, за то, что тратите свое время на зеленых! )))
Просто таким образом файл роботса будет "длинною в жизнь" )))
Нашел решение проблемы путем редактирования файла движка сайта. Еще раз спасибо!
Вот поэтому и спрашиваю совета, как поступить...
А закрытие
Disallow: /page/
Disallow: /lastnews/
Можно спокойно делать?
Дабы не создавать новую тему, спрошу здесь.
Сегодня чисто случайно заметил, что в выдаче Гугла присутствуют страницы, которых в теории быть не должно. Сайт на DLE.
Дело в том, что там находятся страницы материалов за 1668, 1785, 1914, 1325 и т.д. года!!!
Выглядит так: сайт.ру/1668/11/ (ну и по аналогии).
Образовалась ситуация, когда из 6,340 страниц сайта (всего на ресурсе 100 материалов!) не под фильтрами только 3%.
Какие могут быть варианты исправления?
Все что приходит на ум (не судите строго) - это пропись в Robots.txt
Но на сайте есть урлы типа сайт.ру/12-название-статьи... - такие статье ведь тогда тоже выпадут из индекса... Очень важно не потерять в выдаче нужные странички...
Также в выдаче полно страниц вида сайт.ру/lastnews/page/8/ и сайт.ру/page/...
Думаю это убирать через
Буду очень признателен за экспертное мнение! Заранее спасибо!
В этой ситуации особо печален тот момент, что владельцам сайтов даже ничего не сообщили и не сообщают. В общем итоге "простой" уже больше недели (не учитывая воскрешения 3 марта на несколько часов). Конечно же, переехал на другой хостинг.
А бэкапы нужно всегда делать даже если вы на дорогом хостинге.