robots.txt + перменные

12
AVV
На сайте с 31.07.2006
Offline
84
AVV
#11

Дополнение:

Гугль понимает еще к тому же регулярные выражения в роботс.тхт, всякие там звездочки * и т.п.

Динамические урлы - это не регулярные выражения. Поэтому в остальных поисковиках "забанить" get-запрос в url можно.

K. Ermakov
На сайте с 10.12.2004
Offline
328
#12
mediatime:
хттп://www.technoterra.ru/ - посмотрите страницу для печати ....

Я и смотрю, работает на ура:

http://search.msn.com/results.aspx?q=inurl%3Aprint+site%3Atechnoterra.ru

http://search.yahoo.com/search?p=inurl%3Aprint+site%3Atechnoterra.ru

С уважением, Константин Ермаков, absite.ru: онлайн кроссворды (http://absite.ru/); searchsuggest.ru: поисковые подсказки доставляют (http://searchsuggest.ru/).
Л
На сайте с 08.08.2006
Offline
59
#13

прыкольно 😂

mediatime
На сайте с 14.12.2004
Offline
39
#14

K. Ermakov, ну так правельно, если присмотреться то можно увидить что у этих страниц нет заголовка и кеша !!!!!

Гугль делает тоже самое, он знает о ссылке, но не индексирует ее, даже если строит запрет в роботсе.

Это что тоже для вас оказалось ново ????

Кто вам так много плюсов налепил, если простейшие вещи не знаете ???

Меньше скажешь, раньше выйдешь
Segey
На сайте с 23.08.2005
Offline
404
#15

K. Ermakov,

Все, вспомнил, нельзя части скрывать: /ru/forum/65808

Brexit - уже совсем рядом. (https://about-this-model.blogspot.com/2019/03/brexit.html)
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий