Mambaman

Рейтинг
6
Регистрация
02.07.2014

Спасибо, за то, что тратите свое время на зеленых! )))

Просто таким образом файл роботса будет "длинною в жизнь" )))

Нашел решение проблемы путем редактирования файла движка сайта. Еще раз спасибо!

bulatbulat48:
такие метатеги нужно использовать ооочень аккуратно, это закрытие всей файлов *1*

Вот поэтому и спрашиваю совета, как поступить...

А закрытие

Disallow: /page/

Disallow: /lastnews/

Можно спокойно делать?

Дабы не создавать новую тему, спрошу здесь.

Сегодня чисто случайно заметил, что в выдаче Гугла присутствуют страницы, которых в теории быть не должно. Сайт на DLE.

Дело в том, что там находятся страницы материалов за 1668, 1785, 1914, 1325 и т.д. года!!!

Выглядит так: сайт.ру/1668/11/ (ну и по аналогии).

Образовалась ситуация, когда из 6,340 страниц сайта (всего на ресурсе 100 материалов!) не под фильтрами только 3%.

Какие могут быть варианты исправления?

Все что приходит на ум (не судите строго) - это пропись в Robots.txt

Disallow: /*11
Disallow: /*12
Disallow: /*1
Disallow: /*2

Но на сайте есть урлы типа сайт.ру/12-название-статьи... - такие статье ведь тогда тоже выпадут из индекса... Очень важно не потерять в выдаче нужные странички...

Также в выдаче полно страниц вида сайт.ру/lastnews/page/8/ и сайт.ру/page/...

Думаю это убирать через

Disallow: /page/
Disallow: /lastnews/

Буду очень признателен за экспертное мнение! Заранее спасибо!

В этой ситуации особо печален тот момент, что владельцам сайтов даже ничего не сообщили и не сообщают. В общем итоге "простой" уже больше недели (не учитывая воскрешения 3 марта на несколько часов). Конечно же, переехал на другой хостинг.

А бэкапы нужно всегда делать даже если вы на дорогом хостинге.