DaZzay

Рейтинг
7
Регистрация
13.12.2017
voxia:
Disallow: /*?page=

Робот не будет посещать любые страницы, в урл которых содержится фрагмент ?page=
Соответственно /reviews останется разрешённым.

А вообще, правильно так:

Disallow: /reviews?page=
Allow: /reviews$

Спасибо большое, попробуем.

postavkin:
ТС, покажите примеры урл, которые хотите закрыть.
Если все page то
Disallow: *?page

Урла domain.com/reviews?page=2....?page=10

Я хочу закрыть все страницы ?page=2....?page=10 при этом оставить первую страницу каталога /reviews

Всем драсте. Создал тему, т.к. не нашел нужной инфы.

Есть такая задача закрыть все страницы ?page= в каталоге /reviews/ при этом оставить в индексе основную страницу /reviews.

Как это прописать в robots?

мб так?

User-agent: *

Disallow: /reviews*?page

Кто уже сталкивался, подскажите :)

Bel_Ami:
Не стоит. Если страница грузится быстро и нормальный текст, то всё хорошо.
Соотношение, конечно интересное. Тут либо css и java-script не внешние, либо текста мало

Да дело в том что css был вынесен в html для увеличения скорости загрузки страницы, но особого прироста это не дало, пейдж спид 68 для мобайла и 69 для пк. Вот думаю что все таки овчинка вычинки не стоила. :(

П.С.: Текста порядка 2к слов :)