Что то не стыкуется объяснение поддержки и заявление владельца.
По хорошему - должны прийти сюда, извиниться, компенсировать сверху. Но это по хорошему...)
Спасибо за совет, очевидно так и поступлю, месяц подожду, а там видно будет, может и позиции вернутся
Дак вот именно что гугловский вебмастер говорит что никаких фильтров нет, а позиции сели...
Как вы думаете, стоит ли качать контент с ключами, у которых не сели позиции?
Но роботс.тхт не менялся от момента создания сайта, гугл его прекрасно прожевал и ни слова не сказал😕
По прямому заходу пишет:
User-agent: *
Disallow:
Host: site.com
Гуглобот увидел точно так же, совпадение 100%, вернул код 200, говорит файл доступен. Может его вообще проще удалить? В гугле пишут "Если файл robots.txt отсутствует, сервер возвратит код статуса 404 в ответ на запрос робота Googlebot, и процесс сканирования сайта будет продолжен. Это не вызовет никаких проблем."
C их слов всё осталось как есть и ничего не менялось.
Позиция как вижу упала, а с чем это может быть связано?
Говорит "Результатов: примерно 1 050 (0,45 сек.)"
Значит из индекса меня не выкинуло. Но тогда вообще не понятно почему трафик упал😕
Спасибо, такое действительно есть
Конечно стоит, но метрика, насколько я понял не фильтрует гугл\яндекс и помечает их как заходы из ПС (или я не умею ей пользоваться🙄 )
По стате LI
на резкие падения можно не смотреть, это связано с падением сервера, но хорошо видно что гугловский трафик упал
В вебмастере пишет: Google не удалось просканировать ваш сайт, так как закрыт доступ к файлу robots.txt.
Хотя на скринах ниже - он успешно его видит.
Спасибо, это то что нужно! ☝