Вопрос по robots.txt

[Удален]
983

Подскажите как закрыть такие страницы от индексаций

подобные страницы

alldle.com/2010/07/05/

alldle.com/2010/07/24/

Станислав Романенко
На сайте с 05.09.2007
Offline
325
#1

User-agent: Yandex

Disallow: /2010/07/05/

Disallow: /2010/07/24/

Сайт не лезет в топ? Сделаю аудит без воды всего за 8000 рублей! Отзывы клиентов тут (https://searchengines.guru/ru/forum/939454), почта для связи: ingref@ya.ru Посмотрю, в чём проблема с вашим сайтом, за 100 рублей (https://searchengines.guru/ru/forum/comment/15662080).
[Удален]
#2
Ingref:
User-agent: Yandex
Disallow: /2010/07/05/
Disallow: /2010/07/24/

Если бы всё было так просто :(

таких страниц много вылезло (в сегодняшний ап) боюсь что за дубли выбросит нормальные страницы.

Поэтому вопрос немного другой, как закрыть страницы что начинаются с /2010, если так и прописать Disallow: /2010 то вроде не

сайт что выше не мой 🍾

muratti
На сайте с 31.05.2008
Offline
238
#3
Disallow: /2010

Чем не устраивает-то?

http://help.yandex.ru/webmaster/?id=996567#996571

redbeatles
На сайте с 29.07.2010
Offline
149
#4

Подскажите, это нормальный robot.txt для всех поисковиков?!

User-agent: *
Sitemap: http://link_my_website=xml
Disallow: /my_folder1/
Disallow: /my_folder2/
Disallow: /my_folder3/
Disallow: /my_folder4/
Disallow: /my_folder5/
Disallow: /my_folder6/

Может я что-то упустил? Где-то читал, что для бота Yandex необходимо дописывать Host: http://link_my_website/

И тогда robot.txt примет такой вид:

User-agent: Yandex
Sitemap: http://link_my_website=xml
Disallow: /my_folder1/
Disallow: /my_folder2/
Disallow: /my_folder3/
Disallow: /my_folder4/
Disallow: /my_folder5/
Disallow: /my_folder6/
Host: http://link_my_website/

User-agent: *
Sitemap: http://link_my_website=xml
Disallow: /my_folder1/
Disallow: /my_folder2/
Disallow: /my_folder3/
Disallow: /my_folder4/
Disallow: /my_folder5/
Disallow: /my_folder6/

Спасибо!

Системы гарантированного электропитания. Проектирование. Пусконаладочные работы. Источники бесперебойного питания, генераторы, стабилизаторы напряжения.
[Удален]
#6

Читайте все на Яндексе.

Damirovich
На сайте с 18.11.2007
Offline
61
#7

а что для cms dle стандартного роботса нет, где все дубли закрыты? у вордпресса например есть, также там есть плагины которые закрывают архивы и прочее :)

РЕАЛЬНЕ!!! Самое большое счастье, испытываешь тогда, когда что-то важное теряешь, а потом его же находишь :)))

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий