Как заставить Google вновь полюбить сайт

1 23
Alex Agent
На сайте с 07.04.2011
Offline
304
#21
vga1:
А это не насторожило? После переклейки фильт с исходного домена обычно через 2 недели перетекает (по крайней мере, раньше так было). Может фильтр у Вас.

Если это фильтр, то какой?

P.S. Сегодня вспомнил по серию рекламных статей, за публикации которых мне реклы платили в свое время (все равно они уже не актуальны и я с ними не работаю). Не знаю, как насчет причины для понижения, но качества сайту они точно не делают (куча ссылок и мало текста). Грохнул с кодом 410 (удалено) в .htaccess.

Всему свое время. Все сами принесут и все сделают. Быстрый и выгодный перевод денег Россия ↔ Украина онлайн (http://smartwm.ru/referral/cea1f09842be).
vga1
На сайте с 18.02.2007
Offline
251
#22
Alex Agent:
Если это фильтр, то какой?

P.S. Сегодня вспомнил по серию рекламных статей, за публикации которых мне реклы платили в свое время (все равно они уже не актуальны и я с ними не работаю). Не знаю, как насчет причины для понижения, но качества сайту они точно не делают (куча ссылок и мало текста). Грохнул с кодом 410 (удалено) в .htaccess.

Если методом исключения, то скорей всего не Пингвин, не за ссылки. У меня как то был Пингвин, регал новый домен и по 301 редиректу фильт не перетек.

Панда?

Alex Agent
На сайте с 07.04.2011
Offline
304
#23
vga1:
Если методом исключения, то скорей всего не Пингвин, не за ссылки. У меня как то был Пингвин, регал новый домен и по 301 редиректу фильт не перетек.
Панда?

Вот картинка из panguintool:

Как видно, позиции сайта в Google падали обычно после "Unnamed" апдейтов алгоритма и Core Quality.

Alex Agent
На сайте с 07.04.2011
Offline
304
#24

В общем, обнаружилась у сайта интересная проблема. В новой консоли вебмастера Google в разделе "Покрытие" висит куча URL (несколько тысяч) в статусе "проиндексировано, несмотря на блокировку в robots.txt". На проверку это оказались адреса фидов, которые создает тема Newsplus для Wordpress для каждой страницы (RSS-лента комментариев). На сайте стоит ее платная коммерческая версия.

Почему Google проиндексировал все это хозяйство и проигнорировал robots.txt - отдельный вопрос. С точки зрения контента они являются мусором, так как комментариев на сайте реально немного и они есть далеко не у всех материалов. В отличие от нормальных HTML-страниц, они не содержат тега canonical, который бы мог помочь, так как это - RSS.

А вот теперь самое интересное. Анализ показал, что сразу после того, как эти страницы "надуло" в индекс, трафик с Google упал в течение недели в два раза. Более того: предыдущее наиболее серьезное падение позиций в Google было аккуратно спустя три недели после установки этой темы и произошло перед обновлением Core Quality в октябре 2017 года.

Что было сделано: ссылки на фиды страниц, тегов и категорий убраны из шапки темы, оставлены только общие ленты постов и комментариев. А сами эти фиды редирекчены на своих страницы с кодом 301. Лучшего решения не придумал.

Пока отправил на повторную проверку - посмотрим, что будет дальше.

Snack
На сайте с 19.11.2008
Offline
90
#25

Тоже была на паре сайтов подобная техническая ошибка.

На одном под каждый медиафайл создавались отдельные страницы, по сути — мусор. Заметили поздно, в индекс всё это дело вошло и теперь выходит с большим скриптом. Трафик не возвращается.

На другом — отдавался ответ 200, если ввести в конце адреса любой несуществующей страницы определенную цифру аля site.com/asdad9/ site.com/s12/blabla9/. Откуда Гугл брал эти страницы — не понятно, возможно кто-то проспамил. Успешно индексировал, заметили поздно как и вы. Трафик упал в 4 раза и не возвращается даже после исправления. Мало того, страницы те уже месяц отдают 404 но всё равно в серч консоли висят как в индексе.

LexProfit (https://lexprofit.ru/?ref=x4BbVdKX5cNwUpAa#registration) - отличная замена для Leadia. Отличные промо-материалы, стабильные выплаты и высокий аппрув!
C
На сайте с 20.10.2018
Offline
1
#26

Для документов или страниц попавших в "покрытие", которые вроде как запрещены в robots.txt но на них есть ссылки. Настройте для них отдачу заголовка - x-robots-tag: noindex. Google Хорошо на него реагирует. Либо через htaccess либо средствами php.

Alex Agent
На сайте с 07.04.2011
Offline
304
#27
cptcont:
Для документов или страниц попавших в "покрытие", которые вроде как запрещены в robots.txt но на них есть ссылки. Настройте для них отдачу заголовка - x-robots-tag: noindex. Google Хорошо на него реагирует. Либо через htaccess либо средствами php.

Ну в моем случае это хозяйство гораздо правильнее было удалить, так как никакой ценности с точки зрения контента оно не несет в принципе. А так совет хороший.

1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий