Все вопросы по robots.txt

sema_87
На сайте с 28.08.2009
Offline
249
#1041

да точно, сорри

тогда только по рекомендациям гугла, в настройках указывать

Uh-Oh We're In Trouble, Something's Come Along And It's Burst Our Bubble!
AT
На сайте с 08.04.2012
Offline
59
#1042

в robots txt

Николай Дворянинов
На сайте с 18.05.2017
Offline
53
#1043

Добавьте в файл robot.txt команду noindex с указанием страниц, которые не надо индексировать.

tatiananatolna
На сайте с 03.10.2016
Offline
25
#1044

Зайдите в настройки и укажите параметры индексации (сколько времени должно проходить перед переходом на следующий сайт для индексации). Для ботов, которые не учитывают этот параметр, создайте ограничения на индексацию в файле «robots.txt».

alena05
На сайте с 21.01.2017
Offline
22
#1045

Думаю, что здесь вопрос не в прописывании «ноиндекс», а в том, чтобы задать количество страниц, которое робот будет индексировать ежедневно/еженедельно. Вот, только для чего это необходимо? Заливайте контент равномерно, вот и все.

M
На сайте с 04.05.2017
Offline
5
#1046

добрый день есть ссылки одного каталога

тест.рф/поиск/......

как запретить поисковикам их индексировать вообще, там может много вложенностей и параметровно псе они относятся к разделу поиск/

Спасибо

M
На сайте с 04.12.2013
Offline
223
#1047

Именно вложенности, ну либо сам узел, но только с трэйлинг слешем на конце:


Disallow: /поиск/
Домены и скрипт для коротких ссылок: https://u75.ru/domains-for-shortcuts
splish
На сайте с 25.01.2011
Offline
114
#1048

Идёт большая нагрузка на многостраничные сайты, добавив в robots.txt директиву Crawl-delay, как быстро Яндекс будет следовать указанному времени между обращениями к страницам?

M
На сайте с 04.05.2017
Offline
5
#1049

Пытался закрыть от поиска каталог гео и все последующее вложенности например

тест.рф/гео/категория/1

вот robots.txt кодировка utf-8 без бом

User-agent: *

Disallow: /гео/
Host: xn--80aaf9ayc6c.xn--90ais
Sitemap: http://xn--80aaf9ayc6c.xn--90ais/sitemap.xml

yandex webmaster ругается

	Disallow: /гео/	Возможно, был использован недопустимый символ 

Помогите

---------- Добавлено 03.08.2017 в 15:11 ----------

все разобрался

User-agent: *
Disallow: /%D0%B3%D0%B5%D0%BE/
Host: xn--80aaf9ayc6c.xn--90ais
Sitemap: http://xn--80aaf9ayc6c.xn--90ais/sitemap.xml


---------- Добавлено 03.08.2017 в 15:12 ----------

скажите а как проворить доступность роботам этих страничек, вдруг не так что-то сделал?

---------- Добавлено 03.08.2017 в 15:16 ----------

упс не увидел после проверки там есть поле для ввода и проверки ссылок
П
На сайте с 22.05.2006
Offline
181
#1050

Доброго дня.

Начал замечать, что периодически в индексе ПС появляются страницы сайта, которых я там не жду.

Это страницы с неизвестными мне параметрами, типа

Site.ru/?4toZaHren'=1234

Параметры мне не известны, мною не использовались

Стандарнто в роботсе есть чистилка UTM разметки, директива Clean-param:

Но проблема в том, что новые параметры и страницы с этими новыми параметрами проявляются в индексе быстрее, чем я их запрещаю. Надоело уже.

есть ли более кардинальный способ запретить вообще всё что начинается с "?"

Какой-нибудь Clean-param: all

А ещё лучше, вместе с канонизацией ?

Вызывается дождь - постарался шаман. Не вызывается дождь - виноват яндекс. Покупаю внутренние на постоянку (/ru/forum/153994) : Строительство, Машиностроение, Производство, Энергетика, Электроснабжение.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий