Все вопросы по robots.txt

O
На сайте с 29.05.2008
Offline
195
#801
alexbez:
А когда настроен редирект с http на https? Судя по кешу гугла - не очень давно.
У меня было также на нескольких доменах при переезде на https, ошибка пропала, когда сменилось главное зеркало и в выдаче появилась версия с https.

Без редиректа. Google рекомендует оставить две версии доступными.

Только заголовок HSTS preload.

yonen
На сайте с 18.12.2015
Offline
99
#802

Добрый день, не были настроены параметры robots.txt для яндекса 2 года, только для гугла был и выглядел он так:

Disallow: /administrator/

Disallow: /cache/

Disallow: /cli/

Disallow: /components/

Disallow: /images/

Disallow: /includes/

Disallow: /installation/

Disallow: /language/

Disallow: /libraries/

Disallow: /logs/

Disallow: /media/

Disallow: /modules/

Disallow: /plugins/

Disallow: /templates/

Disallow: /tmp/

Disallow: /womens-clothing

Disallow: /womens-clothing/424-hip-pants-10

Disallow: /j2-cart

Disallow: /component/

Disallow: /*order_type

Disallow: /*?start=*

Добавил такое же и для Яндекса, апдейта еще не было и я волнуюсь что позиции ухудшатся из за выпада многих страниц из индекса, на данный момент(как бы это не казалось вам странным), сайт держит топ по своим тематикам.

Подскажите, возможно ли ухудшение из-за этого?

ЗЫ: каталог лежит в дерективе /shop и не закрыт, закрыты только страницы пагинации

Профиль - Интернет магазины, электронная коммерция. Профессиональный Аудит от 10 000 руб.
BlagFurer
На сайте с 09.12.2009
Offline
79
#803
ortegas:
Добавлены обе версии.
Ошибка присутствует и для HTTPS версии сайта.

Они признаны яндексом зеркалами?

При переходе на морду шлет на "Location: /?page_id=177" через 307. Избегайте использования временных редиректов типа 307. Поставьте человеческий 301. Временный редирект подразумевает, что старый сайт вполне можно оставить в индексе.

---------- Добавлено 18.10.2016 в 17:39 ----------

GreeNVet:
1) Если в поисковую выдачу попали сопли: /feed (940 шт); /pages (400) и /tags (около 240) и я закрыл их в robots.txt (кроме /*page), выпадут ли эти страницы после переобхода роботом из ПС или нет? Проблема актуально только для Яндекса. Гугл соплей не затянул в ПС.

Со временем выпадет

GreeNVet:
2) Правильно ли у меня прописан роботс?
User-agent: *
Disallow: /wp-admin
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /feed/
Disallow: */feed
Disallow: */trackback
Disallow: */comments
Disallow: /go/
Disallow: /*?
Disallow: /*?*
Disallow: /tag
Disallow: /search
Crawl-delay: 10
Host: сайт
Sitemap: сайт/sitemap.xml

А как это можно определить без знания домена? Проверяйте сами. https://webmaster.yandex.ru/tools/robotstxt/

Вставляйте подопытные URL и сверяйте ожидаемое с действительным.

GreeNVet:
3) Не нашёл однозначного и толкового ответа относительно надобности закрытия пагинации от ПС для информационного сайта?

Нет однозначного ответа. Как по мне в этом нет ничего плохого, если пагинация настроена верно. Установлены prev и next, стоит каноникал, уникализированы заголовки. Некоторые оптимизаторы просто закрывают всю пагинацию к чертям и подкрепляют свою точку зрения наличием правильно sitemap.xml

Ссылки по теме пагинации

http://seoprofy.ua/blog/optimizaciya-sajtov/pagination-for-seo

А вот доводы в сторону отказа от пагинации.

http://convertmonster.ru/blog/seo-blog/seo-paginacija-kak-postranichnaja-navigacija-vredit-seo/ Однако забавно, что у них же на блоге сделано ровно наоборот и пагинация вполне нормально индексируется.

shullga
На сайте с 14.04.2016
Offline
4
#804

Каким образом в robots.txt запретить индексирование ссылок на комментарии модуля Komento, которые я расставил под вступлением всех статей? Эти все ссылки оканчиваются одинаково, вот таким образом: #section-kmt

paradoks1k
На сайте с 30.10.2009
Offline
100
#805

shullga для ответа на вопрос нужно знать пример URLа комментария. Приведите пример, доменное имя замените на что-либо.

Мнение — самый дешёвый в мире товар. Спросите любого, и он подарит вам целый букет.
O
На сайте с 29.05.2008
Offline
195
#806

Очень приятно удивлен оперативности обратной связи Яндекса.

Отправил я сегодня вопрос в поддержку Яндекса, цитирую:

> Старый адрес сайта: ***.com

> Новый адрес сайта: https://***.com

>

> Здравствуйте.

>

> Я прописал в директиве Host название сайта с указанием протокола, но в уведомлениях получаю ошибку:

> В директиве Host указан домен, где аналогичные указания в файле robots.txt отсутствуют. Чтобы указания директивы Host были учтены, идентичные директивы должны присутствовать в файлах robots.txt всех зеркал сайта.

> Я проверил валидность файла robots.txt - без ошибок, но проблема не пропадает из уведомлений - "Проблема актуальна

> Проблема известна с 12.10.2016

> Проверено: 17.10.2016"

>

> Подскажите, как мне нужно отредактировать robots.txt и заменяет ли директиву Host пункт "настройка индексирования - переезд сайта"? То-есть, могу ли я убрать ее вообще, если указал главное зеркало в панели вебмастера?

Ответили за 1 час (был очень приятно удивлен, когда обращался в последний раз пару лет назад - отвечали через 2 недели)

Здравствуйте, Артур!

Спасибо, что сообщили нам о ситуации с предупреждениями для сайтов в Яндекс.Вебмастере. Мы проверим, по каким причинам данные предупреждения отображаются несмотря на корректные указания.

Между тем, все необходимое для склейки сайтов в группу зеркал и признания https://***.com было сделано. В течение нескольких недель робот отследит изменения и склеит сайты согласно заданным указаниям.

Нет, инструмент "Переезд сайта" не заменяет директиву Host. Данный инструмент позволяет сообщить роботу, что необходимо совершить проверку на возможность склейки сайтов. Тем не менее, для корректного выбора главного зеркала необходимо, чтобы сайты содержали явные указания на желаемое главное зеркало, поэтому директиву Host удалять не следует.

ortegas:
Здравствуйте.
Подскажите, Яндекс выдает ошибку на следующее содержание robots.txt.
В упор, не могу понять в чем ошибка - может пробел где-то не там или протокол не нужно указывать?
Сайт доступен и по HTTP и по HTTPS, в Host указан адрес с HTTPS.

[ATTACH]156407[/ATTACH]

[ATTACH]156408[/ATTACH]
adel92
На сайте с 04.01.2012
Offline
334
#807
ortegas:
Очень приятно удивлен оперативности обратной связи Яндекса.

Отправил я сегодня вопрос в поддержку Яндекса, цитирую:
> Старый адрес сайта: ***.com
> Новый адрес сайта: https://***.com
>
> Здравствуйте.
>
> Я прописал в директиве Host название сайта с указанием протокола, но в уведомлениях получаю ошибку:
> В директиве Host указан домен, где аналогичные указания в файле robots.txt отсутствуют. Чтобы указания директивы Host были учтены, идентичные директивы должны присутствовать в файлах robots.txt всех зеркал сайта.
> Я проверил валидность файла robots.txt - без ошибок, но проблема не пропадает из уведомлений - "Проблема актуальна
> Проблема известна с 12.10.2016
> Проверено: 17.10.2016"
>
> Подскажите, как мне нужно отредактировать robots.txt и заменяет ли директиву Host пункт "настройка индексирования - переезд сайта"? То-есть, могу ли я убрать ее вообще, если указал главное зеркало в панели вебмастера?

Ответили за 1 час (был очень приятно удивлен, когда обращался в последний раз пару лет назад - отвечали через 2 недели)
Здравствуйте, Артур!

Спасибо, что сообщили нам о ситуации с предупреждениями для сайтов в Яндекс.Вебмастере. Мы проверим, по каким причинам данные предупреждения отображаются несмотря на корректные указания.

Между тем, все необходимое для склейки сайтов в группу зеркал и признания https://***.com было сделано. В течение нескольких недель робот отследит изменения и склеит сайты согласно заданным указаниям.

Нет, инструмент "Переезд сайта" не заменяет директиву Host. Данный инструмент позволяет сообщить роботу, что необходимо совершить проверку на возможность склейки сайтов. Тем не менее, для корректного выбора главного зеркала необходимо, чтобы сайты содержали явные указания на желаемое главное зеркало, поэтому директиву Host удалять не следует.

За последний год я не сталкивался с долгими ответами от Яндекса. Поддержку они наконец то организовали

NVMe VDS (https://well-web.net/nvme-vps) с поддержкой 24/7 - от 545 руб.! Безлимитный хостинг (https://well-web.net/ssd-hosting) - от 129 руб.! Домен в подарок! Перенос бесплатно! Заказывайте сейчас, и получите скидку 50%! Заходи! (https://well-web.net/limited-offers)
River
На сайте с 25.02.2011
Offline
135
#808

Подскажите как правильно закрыть странички с такими адресами:

domen.ru/towarN/reviews/ ( товары разные).

Это странички для отзывов, которые пока не заполнены.

Записки дегустатора напитков (http://www.beerblogger.ru) +18 Bq-Recovery манипуляция ценами ( /ru/forum/1017253)
K4
На сайте с 20.06.2013
Offline
124
#809

Как в robots.txt убрать результаты поиска сайта, что нужно прописать?

Урл идет такого плана http://domain.ru/?s=фраза

adel92
На сайте с 04.01.2012
Offline
334
#810
kolpa4ok:
Как в robots.txt убрать результаты поиска сайта, что нужно прописать?
Урл идет такого плана http://domain.ru/?s=фраза

Запретить индексирование по маске domain.ru/?s

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий