Яндекс теряет robots.txt после настройки CloudFlare

M
На сайте с 05.06.2015
Offline
29
1640

Два трастовых сайта были перенесены на CloudFlare, в это же время страницы ключевых разделов стали выпадать из поиска, позиции и трафик пошли на убыль. ВебМастер регулярно сообщает, что ему недоступен файл Robot.txt, поэтому не известно содержимое директивы Host. Добавили регион Russian Federation в Whitelist. Не помогло.

Изначальная цель - избежать DDoS, а этот сервис бесплатно предлагает что то вроде защиты. Другие сервисы стоят около 10тр в месяц, а это за рамками допустимого бюджета.

Соответственно два вопроса:

1 Как настроить ClouFlare, чтобы устранить проблему невидимости robots?

2 На что бюджетно заменить CloudFlare?

[Удален]
#1

Это в раздел /ru/forum/development - ибо seo тут не при делах.

S3
На сайте с 29.03.2012
Offline
352
#2

mrnr, Потери траффика неизбежны, по сути вы переехали на новый домен с тз поисковика. В роботс в хос добавили буковку s? Указали главное зеркало в вебмастере?

M
На сайте с 05.06.2015
Offline
29
#3
Sly32:
mrnr, Потери траффика неизбежны, по сути вы переехали на новый домен с тз поисковика. В роботс в хос добавили буковку s? Указали главное зеркало в вебмастере?

Не уловил, о переезде на новый домен, у нас URL остался точно таким же. В адресе сейчас нет буквы "s" (т.е. сейчас по прежнему http:). В Вебмастере адрес соответственно не менял.

Страницы выпадают не все, и те возвращаются после их добавления в список приоритетной переиндексации. За это время и проседает трафик.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий