Все вопросы по robots.txt

Q
На сайте с 03.10.2011
Offline
301
#591

подскажите пожалуйста, что добавить в robots чтобы закрыть все страницы, которые содержат /1/page ..... /N/page

Или, /page

Сами урлы такие

сайт.ру/stat/1/page

сайт.ру/stat/2/page

сайт.ру/stat/3/page

BlagFurer
На сайте с 09.12.2009
Offline
79
#592
bandesign:
Ребят, такая проблемма. Решил закрыть дубли страниц в роботсе, но столкнулся с непонятной для меня проблеммой.

Допустим закрываю я вот такую ссылку:
Disallow: /portfolio.php?work=225&s=1
Проверяю её через "посмотреть как гуглбот" он пишет что она закрыта, всё ОК.

Но! если проверить /portfolio.php?work=225&s=1&ss=3 то она тоже закрыта, и при проверке роботс ссылается на Disallow: /portfolio.php?work=225&s=1

Получается я одним запретом закрыл обе страницы дубля а не одну, как быть в такой ситуации, почему гуглбот не учитывает точное вхождение ссылки?

Вот роботс на васякий случай - bandesign.ru/robots.txt

Попробуйте так

Disallow: /portfolio.php?work=225&s=1$

Будет точно вхождение. Работает для Я и G

Полезная страничка на тему:

https://support.google.com/webmasters/answer/6062596?hl=ru&ref_topic=6061961

---------- Добавлено 12.02.2016 в 13:21 ----------

qvaro:
подскажите пожалуйста, что добавить в robots чтобы закрыть все страницы, которые содержат /1/page ..... /N/page
Или, /page

Сами урлы такие

сайт.ру/stat/1/page
сайт.ру/stat/2/page
сайт.ру/stat/3/page

Если отталкиваться от примера

Disallow: /stat/*/page

Либо просто:

Disallow: */page

HR
На сайте с 17.02.2007
Offline
210
#593

Магазин на друпале, картина в вебмастере:

Проиндексировано всего

682

Заблокировано в файле robots.txt

549

Роботс:

User-agent: *
# Directories
Disallow: /includes/
Disallow: /profiles/
Disallow: /scripts/
Disallow: /themes/
Disallow: /node/
Disallow: /taxonomy/
Disallow: /user/

# Files
Disallow: /CHANGELOG.txt
Disallow: /cron.php
Disallow: /INSTALL.mysql.txt
Disallow: /INSTALL.pgsql.txt
Disallow: /INSTALL.sqlite.txt
Disallow: /install.php
Disallow: /INSTALL.txt
Disallow: /LICENSE.txt
Disallow: /MAINTAINERS.txt
Disallow: /update.php
Disallow: /UPGRADE.txt
Disallow: /xmlrpc.php

# Paths (clean URLs)
Disallow: /admin/
Disallow: /comment/reply/
Disallow: /filter/tips/
Disallow: /node/add/
Disallow: /search/
Disallow: /user/register/
Disallow: /user/password/
Disallow: /user/login/
Disallow: /user/logout/

# Paths (no clean URLs)
Disallow: /?q=admin/
Disallow: /?q=comment/reply/
Disallow: /?q=filter/tips/
Disallow: /?q=node/add/
Disallow: /?q=search/
Disallow: /?q=user/password/
Disallow: /?q=user/register/
Disallow: /?q=user/login/
Disallow: /?q=user/logout/

User-agent: Yandex
# Directories
Disallow: /includes/
Disallow: /misc/
Disallow: /modules/
Disallow: /profiles/
Disallow: /scripts/
Disallow: /themes/
Disallow: /node/
Disallow: /taxonomy/
Disallow: /user/


# Files
Disallow: /CHANGELOG.txt
Disallow: /cron.php
Disallow: /INSTALL.mysql.txt
Disallow: /INSTALL.pgsql.txt
Disallow: /INSTALL.sqlite.txt
Disallow: /install.php
Disallow: /INSTALL.txt
Disallow: /LICENSE.txt
Disallow: /MAINTAINERS.txt
Disallow: /update.php
Disallow: /UPGRADE.txt
Disallow: /xmlrpc.php

# Paths (clean URLs)
Disallow: /admin/
Disallow: /comment/reply/
Disallow: /filter/tips/
Disallow: /node/add/
Disallow: /search/
Disallow: /user/register/
Disallow: /user/password/
Disallow: /user/login/
Disallow: /user/logout/

# Paths (no clean URLs)
Disallow: /?q=admin/
Disallow: /?q=comment/reply/
Disallow: /?q=filter/tips/
Disallow: /?q=node/add/
Disallow: /?q=search/
Disallow: /?q=user/password/
Disallow: /?q=user/register/
Disallow: /?q=user/login/
Disallow: /?q=user/logout/

Подскажите где косяк, товарищи?

Подозреваю что в /node/ , но у меня ЧПУ...

В яндексе всё нормально.

E
На сайте с 07.08.2009
Offline
58
#594

User-Agent: Yandex

Disallow: /cgi-bin

Disallow: /search

Disallow: /svyaz

Disallow: /forma-obratnoy-svyazi

Disallow: /respect

Disallow: /skidka-kupon/

Disallow: /katalog/order/

Disallow: /katalog/cart/

host: www.мойсайт.ru

User-Agent: Googlebot

Disallow: /cgi-bin

Disallow: /search

Disallow: /svyaz

Disallow: /forma-obratnoy-svyazi

Disallow: /respect

Disallow: /skidka-kupon/

Disallow: /katalog/order/

Disallow: /katalog/cart/

host: www.мойсайт.ru

указываю для яндекса и для гугл правила , а яндекс пишет типо ошибка и два хоста нельзя , это получается для гугл не должен ставить хост???

Психиатр
На сайте с 16.11.2010
Offline
360
#595

Получается, что да, не должен.

Посмотри как реализовано на других сайтах, есть еще где то два хоста?

Maxim-KL
На сайте с 26.01.2011
Offline
350
#596

Eltd, Для гугла делать отдельный не надо он и так все понимает. А для остальных где???

Правильней будет сделать так:

User-agent: *

и тд... все как у вас.

без Host:

User-agent: Yandex

Host: мойсайт.ru

и тд... все как у вас.

Мои услуги по прогонам: ✅Качественный ручной статейный прогон по базе сайтов с ИКС10+ (maximgroups.net/progon-statejnyj) ✅Прогон Максимум - Все включено, 300+ качественных ссылок (maximgroups.net/progon-maksimum)
W
На сайте с 13.09.2013
Offline
122
#597
E
На сайте с 07.08.2009
Offline
58
#598

Вот сразу заметно что яша самый умный (((((((((( и достался же русским такой .....😡

з.ы. всем спасибо

Maxim-KL
На сайте с 26.01.2011
Offline
350
#599

Eltd, Получается что он самый тупой, для всех стандартного роботса хватает а яшке подавай отдельный))

HR
На сайте с 17.02.2007
Offline
210
#600

Насчет моего роботса кто-нибудь что-нибудь скажет?))

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий