WhiteSEOMagic

Рейтинг
67
Регистрация
28.01.2009
WMID: 141634688463, whiteseomagic@gmail.com

Заметил, что после апдейта 23 мая слетела релевантность страниц по многим запросам на мультирегиональном сайте и, кажется, нашёл этому причину.

Ранее коммерческий геозависимый поисковый запрос "<ключевая фраза>" продвигался на конкретную оптимизированную страницу общую для всех регионов. А после апдейта для запроса "<ключевая фраза>" стали релевантны страницы вида /***/kirov/ и т.д., под каждый город своя. И в выдаче по ключевой геозависимой фразе теперь город в тайтле подсвечивается жирным. Получается, что из-за тайтла стала релевантна другая другая страница, на которой даже текста нет (на этих страницах размещена только контактная информацию), поэтому и позиции плохие. В основном затронуло ВЧ. У половины регионов релевантность поменялась, у остальных все по прежнему. Подождём ещё пару-тройку апов, посмотрим в какую сторону изменится ситуация.

В общем примите на вооружение.

В прошлый апдейт мультирегиональный сайт сильно просел по позициям. В этот ап некоторые позиции вернулись, некоторые вылетели, небольшие подвижки. Но потерянные позиции с прошлого апа ещё не восстановились.

bulatbulat48:
ребята у кого-нить позиции упали за -30 -100 на мультирегиональных сайтах? свалилось особенно сильно в СПб и ЕКБ

Да. Очень сильно просели позиции в этот ап.

И просадки по позициям такие же резкие, примерно -30 -100. Причём просели только некоторые фразы, другие смежные стоят в топе. Позиции по регионам просели по разному, где-то сильно, где-то слабо. В основном затронуло ВЧ запросы.

У большинства запросов, которые потеряли позиции, поменялась релевантная страница.

Из последних изменений на сайте: много регионов разом было присвоены 7го числа этого месяца. До этого апдейта все было замечательно. Признаков того, что регионы отвалились, не наблюдаю. До апдейта в топ10 было 68% фраз, после - 42%.

А я под оптимизацией сайта понимаю полный комплекс работ: настройка корректной индексации, доработка структуры сайта, доработка контента сайта, юзабилити, ctr сниппетов, доработка функционала сайта и многое другое. Вопрос лишь в том, в какой степени те или иные изменения повлияют на позиции определенного сайта.

DimkaKD, сделайте следующее...

1. Добавьте в robots.txt только для основного домена 2 уровня в самом низу файла такую строку:

#test

2. Проверьте, появилась ли данная строка в robots.txt на основном домене 2 уровня и на поддоменах 3 и 4 уровней.

* При просмотре изменений файла robots.txt рекомендую обновлять страницу комбинацией клавиш Ctrl+F5, чтобы очистить кеш браузера.

Выводы можно сделать следующие:

а) Если эта строка отобразится в robots.txt только на основном домене, значит настройки роботс будут работать только для основного домена.

б) Если эта строка отобразится в robots.txt сразу на всех доменах, значит настройки роботс будут работать сразу для всех доменов.

Насчет того, как поисковые роботы воспринимают файл robots.txt:

Каждый домен и поддомен для них как отдельный сайт.

На индексацию forum.searchengines.ru влияет файл

На индексацию https://searchengines.guru/ влияет файл

На индексацию searchengines.ru влияет файл

Подробнее об использовании файла robots.txt читайте тут:

http://help.yandex.ru/webmaster/?id=996567

robots.txt будет работать только для того домена или поддомена, на котором он размещен.

Для каждого домена/поддомена нужно настраивать свой robots.txt, например:

Удалите с сайта вирус, закройте все возможные дыры на сайте, чтобы вновь не подцепить его, и отправьте сайт на перепроверку через Яндекс.Вебмастер. И все будет ОК.

У данного сайта есть проблема с индексацией в ПС Яндекс. В поиске всего 1 страница. Технических проблем с индексацией сайта я не вижу. Скорее всего на сайт наложили фильтр. Вероятнее всего причиной наложения фильтра могли послужить:

1. одинаковая структура раздела "Статьи" со вторым сайтом;

2. копированные тексты;

3. одинаковый дизайн со вторым сайтом.

На сайте есть уникальные тексты или все тексты копипаст?

Предположу, что речь в данной ситуации идет о ПС Яндекс.

И так час через час.

Как мне кажется, дело может быть в персональном поиске Яндекса. Попробуйте убрать в настройках поиска галочку "учитывать мою историю поиска", если она стоит.

Вариант 1. Закрыть короткие адреса от индексации через robots.txt, если это возможно.

Если покажите как выглядят длинные и короткие URL, подскажу, можно ли их закрыть в robots.txt и как это сделать.

Подробнее о robots.txt: http://help.yandex.ru/webmaster/?id=996567

Вариант 2. Воспользоваться rel="canonical" для склейки страниц дубликатов.

Для этого нужно выводить в html-коде страницы в теге <head> мета-тег <link rel="canonical" href="http://домен.зона/long-url"/>

Вместо http://домен.зона/long-url должен выводиться длинный URL соотвутствующей страницы.

Если данный тег по умолчанию не выводится, то придется настраивать/дописывать его вывод в движке.

Подробнее о rel="canonical": http://help.yandex.ru/webmaster/?id=1127756#canonical

123 4
Всего: 34