Заметил, что после апдейта 23 мая слетела релевантность страниц по многим запросам на мультирегиональном сайте и, кажется, нашёл этому причину.
Ранее коммерческий геозависимый поисковый запрос "<ключевая фраза>" продвигался на конкретную оптимизированную страницу общую для всех регионов. А после апдейта для запроса "<ключевая фраза>" стали релевантны страницы вида /***/kirov/ и т.д., под каждый город своя. И в выдаче по ключевой геозависимой фразе теперь город в тайтле подсвечивается жирным. Получается, что из-за тайтла стала релевантна другая другая страница, на которой даже текста нет (на этих страницах размещена только контактная информацию), поэтому и позиции плохие. В основном затронуло ВЧ. У половины регионов релевантность поменялась, у остальных все по прежнему. Подождём ещё пару-тройку апов, посмотрим в какую сторону изменится ситуация.
В общем примите на вооружение.
В прошлый апдейт мультирегиональный сайт сильно просел по позициям. В этот ап некоторые позиции вернулись, некоторые вылетели, небольшие подвижки. Но потерянные позиции с прошлого апа ещё не восстановились.
Да. Очень сильно просели позиции в этот ап.
И просадки по позициям такие же резкие, примерно -30 -100. Причём просели только некоторые фразы, другие смежные стоят в топе. Позиции по регионам просели по разному, где-то сильно, где-то слабо. В основном затронуло ВЧ запросы.
У большинства запросов, которые потеряли позиции, поменялась релевантная страница.
Из последних изменений на сайте: много регионов разом было присвоены 7го числа этого месяца. До этого апдейта все было замечательно. Признаков того, что регионы отвалились, не наблюдаю. До апдейта в топ10 было 68% фраз, после - 42%.
А я под оптимизацией сайта понимаю полный комплекс работ: настройка корректной индексации, доработка структуры сайта, доработка контента сайта, юзабилити, ctr сниппетов, доработка функционала сайта и многое другое. Вопрос лишь в том, в какой степени те или иные изменения повлияют на позиции определенного сайта.
DimkaKD, сделайте следующее...
1. Добавьте в robots.txt только для основного домена 2 уровня в самом низу файла такую строку:
#test
2. Проверьте, появилась ли данная строка в robots.txt на основном домене 2 уровня и на поддоменах 3 и 4 уровней.
* При просмотре изменений файла robots.txt рекомендую обновлять страницу комбинацией клавиш Ctrl+F5, чтобы очистить кеш браузера.
Выводы можно сделать следующие:
а) Если эта строка отобразится в robots.txt только на основном домене, значит настройки роботс будут работать только для основного домена.
б) Если эта строка отобразится в robots.txt сразу на всех доменах, значит настройки роботс будут работать сразу для всех доменов.
Насчет того, как поисковые роботы воспринимают файл robots.txt:
Каждый домен и поддомен для них как отдельный сайт.
На индексацию forum.searchengines.ru влияет файл
На индексацию https://searchengines.guru/ влияет файл
На индексацию searchengines.ru влияет файл
Подробнее об использовании файла robots.txt читайте тут:
http://help.yandex.ru/webmaster/?id=996567
robots.txt будет работать только для того домена или поддомена, на котором он размещен.
Для каждого домена/поддомена нужно настраивать свой robots.txt, например:
Удалите с сайта вирус, закройте все возможные дыры на сайте, чтобы вновь не подцепить его, и отправьте сайт на перепроверку через Яндекс.Вебмастер. И все будет ОК.
У данного сайта есть проблема с индексацией в ПС Яндекс. В поиске всего 1 страница. Технических проблем с индексацией сайта я не вижу. Скорее всего на сайт наложили фильтр. Вероятнее всего причиной наложения фильтра могли послужить:
1. одинаковая структура раздела "Статьи" со вторым сайтом;
2. копированные тексты;
3. одинаковый дизайн со вторым сайтом.
На сайте есть уникальные тексты или все тексты копипаст?
Предположу, что речь в данной ситуации идет о ПС Яндекс.
Как мне кажется, дело может быть в персональном поиске Яндекса. Попробуйте убрать в настройках поиска галочку "учитывать мою историю поиска", если она стоит.
Вариант 1. Закрыть короткие адреса от индексации через robots.txt, если это возможно.
Если покажите как выглядят длинные и короткие URL, подскажу, можно ли их закрыть в robots.txt и как это сделать.
Подробнее о robots.txt: http://help.yandex.ru/webmaster/?id=996567
Вариант 2. Воспользоваться rel="canonical" для склейки страниц дубликатов.
Для этого нужно выводить в html-коде страницы в теге <head> мета-тег <link rel="canonical" href="http://домен.зона/long-url"/>
Вместо http://домен.зона/long-url должен выводиться длинный URL соотвутствующей страницы.
Если данный тег по умолчанию не выводится, то придется настраивать/дописывать его вывод в движке.
Подробнее о rel="canonical": http://help.yandex.ru/webmaster/?id=1127756#canonical