Все вопросы по robots.txt - 2

Brutality
На сайте с 06.01.2011
Offline
153
#301

TatianaBO, Гугл рекомендует не закрывать, чтобы он мог правильно отрисовать страницу, например, чтобы корректно пройти тот же mobile friendly тест

* Вероятно, лучший хостинг: выбор Pikabu, AdmitAd, Maxim, ЯП и др. Дата-центры в Европе и США (http://clc.to/fx). Цены от 1 евро * ПРОМОКОДЫ, скидки на хостинг и серверы: FastVPS, Inferno, Fornex, Fozzy (http://clc.to/pc)
dotern
На сайте с 21.09.2016
Offline
123
#302

Есть две версии сайта:

site.ru

m.site.ru

В m.site.ru/robots.txt стоит Host: http://site.ru

Наткнулся на информацию, что нужно ставить Host: http://m.site.ru

Так как всё-таки правильно?

Brutality
На сайте с 06.01.2011
Offline
153
#303
dotern:
Так как всё-таки правильно?

никак)

Как мы писали ранее, мы отказываемся от директивы Host. Теперь эту директиву можно удалять из robots.txt

https://webmaster.yandex.ru/blog/301-y-redirekt-polnostyu-zamenil-direktivu-host

D
На сайте с 26.06.2019
Offline
0
#304

Здравствуйте у меня в индексе куча страниц а по факту в три раза меньше из -за рубрик и их архивов. Подскажите пожалуйста какое действие нужно прописать в robots.txt на примере этой страницы https://vashigrezi.ru/category/uxod-za-kozshei/page/19/

Станислав Романенко
На сайте с 05.09.2007
Offline
325

Можно вообще всю пагинацию запретить:

User-agent: *

Disallow: /category/*/page/

Но вообще, надо сделать так, чтобы таких пустых страниц не возникало.

Сайт не лезет в топ? Сделаю аудит без воды всего за 8000 рублей! Отзывы клиентов тут (https://searchengines.guru/ru/forum/939454), почта для связи: ingref@ya.ru Посмотрю, в чём проблема с вашим сайтом, за 100 рублей (https://searchengines.guru/ru/forum/comment/15662080).
D
На сайте с 26.06.2019
Offline
0
#306
Ingref:
Можно вообще всю пагинацию запретить:

User-agent: *
Disallow: /category/*/page/

Но вообще, надо сделать так, чтобы таких пустых страниц не возникало.

Эта страница пагинации с утра была еще. Я просто не знал как сделать чтобы в рубрике выводились сразу все страницы а не одна как было

ruslan_1991
На сайте с 25.01.2018
Offline
63
#307

Админ пожалуйста удалите это сообщение с темой ошибся .

S1
На сайте с 10.05.2019
Offline
1
#308

Для России и стран СНГ, где доля Яндекса ощутима, следует прописывать директивы для всех роботов и отдельно для Яндекса и Google.

Чтобы правильно настроить robots.txt воспользуйтесь следующим алгоритмом:

Закройте от индексирования админку сайта

Закройте от индексирования личный кабинет, авторизацию, регистрацию

Закройте от индексирования корзину, формы заказа, данные по доставке и заказам

Закройте от индексирования ajax, json-скрипты

Закройте от индексирования папку cgi

Закройте от индексирования плагины, темы оформления, js, css для всех роботов, кроме Яндекса и Google

Закройте от индексирования функционал поиска

Закройте от индексирования служебные разделы, которые не несут никакой ценности для сайта в поиске (ошибка 404, список авторов)

Закройте от индексирования технические дубли страниц, а также страницы, на которых весь контент в том или ином виде продублирован с других страниц (календари, архивы, RSS)

Закройте от индексирования страницы с параметрами фильтров, сортировки, сравнения

Закройте от индексирования страницы с параметрами UTM-меток и сессий

Проверьте, что проиндексировано Яндексом и Google с помощью параметра «site:» (в поисковой строке наберите «site:site.ru»). Если в поиске присутствуют страницы, которые также нужно закрыть от индексации, добавьте их в robots.txt

Укажите Sitemap и Host

По необходимости пропишите Crawl-Delay и Clean-Param

Проверьте корректность robots.txt через инструменты Google и Яндекса (описано ниже)

Через 2 недели перепроверьте, появились ли в поисковой выдаче новые страницы, которые не должны индексироваться. В случае необходимости повторить выше перечисленные шаги.

[Удален]
#309
Slava1123:
Закройте от индексирования служебные разделы, которые не несут никакой ценности для сайта в поиске (ошибка 404, список авторов)
Закройте от индексирования технические дубли страниц, а также страницы, на которых весь контент в том или ином виде продублирован с других страниц (календари, архивы, RSS)

Закройте от индексирования этот бред.

S0
На сайте с 02.07.2019
Offline
0
#310

Подскажите, html версию карты сайта надо закрывать от индексации? Вот гугл плагин xml sitemap считает что да, надо закрывать. А вот консоль гугла считает что это ошибка)

С xml версией все ок, вопросов нет по ней.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий