Ripro

Ripro
Рейтинг
144
Регистрация
04.11.2006
Vanzent:
У меня симптомы другие - резкое падение с сегодняшнего утра.
Уважаемый Fringer подсказал, что причина взрывной рост ссылочной массы. Отсюда сделаю заключение, что ко мне в гости пришлел пингвинчик, а к вам и ТС возможно панда.

Далеко не всегда проблема в зверинце, хотя почему-то проще сказать - да, поймал пингвин за ссылки. Возможных причин падения трафика множество. Если это только произошло - просто проанализируйте ПОЧЕМУ он упал, с каких ключей и т.д.

Тогда нужно смотреть ресурс, запросы, конкурентов. Возможно, это просто сезонный спад. Может ваше "для людей" людям и не нравится. А может у вас сайт на 2м месте, а на 1м отзыв крайне негативный о вашей фирме? (кстати, реальный случай - потому и не кликали) :)

Или к гадалкам за помощью, т.к. тут вряд ли вслепую определят проблему.

Vallerrdesign:

А если я обнаружу плохие неправильные ссылки на мои страницы, как и чем их закрывать.
В файле robots.txt и удалять их из вебмастера? Или есть другие сервисы?

Спасибо.

Если вы обнаружите ссылка на других сайтах - как вы их уберете? Можно, конечно, написать вебмастерам, чтобы исправили или сняли, но крайне редко они это делают.

Но если вдруг такую ссылку поставили на полезном форуме, например, и на нее идет трафик - поставить 301 редирект на главную, чтобы трафик не терять.

В роботс вы никак не закроете ссылки с чужих сайтов.

Если на вашем сайте - исправляйте ссылку на правильную. На страницу - 404.

Многое зависит от задач. Если клиент хочет иметь продажи с сайта, который уже получает прилично трафика - я бы сделала магазин разделом сайта, а не на отдельном и не на поддомене. И на главной, возможно, товары и т.п. А новости-статьи отодвинула на второй план.

Отдельный сайт и поддомен - это разные сайты, которые нужно с нуля продвигать, тратить время, деньги. Зачем, если есть ресурс с "историей" и трафиком?

Но если ваш сайт-визитка под фильтрами - тогда другое дело.

Т.е. нужно анализировать сайт с учетом конечной цели, которую хочет получить заказчик и решать.

ongamenet:
Все началось 16 декабря, 17 (-90%), 18 (-95%), сегодня тренд продолжается.

Быстро анализируйте ситуацию. Страницы выпали? Какие? Совсем или из ТОП10. Все выпали или часть или только ВЧ ключи. Какой трафик вы теряете? Сайт доступен? Не закрыт для индексации? Откуда переходят люди, куда при этом попадают.

ongamenet:
В списке "Меры вручную" пусто, это алгоритм принял.

Если падение произошло недавно - может просто сайт был недоступен какое-то время и спустя пару недель все восстановится.

Либо определять какая именно зверушка вас укусила и пытаться задобрить зверя, внося необходимые изменения :)

Vallerrdesign:
Спасибо за совет, не подскажете как проверить ссылочное, кроме как в вебмастере?

1. просканить сайт, я использую PageWeight - проверить внутренние ссылки

2. лучше собрать ссылки с нескольких источников - wmt, ahrefs и т.д., все, что вам подходит, любые сервисы. Но все они показывают часть данных, потому лучше собрать с нескольких. В том же ahrefs можно проверить внешние ссылки на конкретную страницу, а не на весь сайт.

Дубли для сайта критичны. Склейка проходит не сразу, нужно время. Бывает пара месяцев, бывает и год висят страницы в индексе.

Vallerrdesign:
Самое интересное, что при проверке на код ответа в вебмастере гугла и яндекса, ответ одинаковый, что эта страница (http://moysite.ru/?bug=moysite.ru) - "Запрещено в файле robots.txt"

Однако в гугле эта страница прекрасно проиндексировалась и стала дублем главной, вот и пойми почему она появилась в индексе...

Закрыть в роботс - это не указание не индексировать, а просьба. Если на такой адрес поставили ссылок, например, то страница войдет в индекс. Проверьте ссылочное, в том числе и на сайте - может какой менеджер влепил в тексте такой линк. И отдавайте по адресу 404 обязательно.

Иногда входит по неведомым простым смертным причинам :) Просто потому, что вы не закрываете от индексации, а даете знать поисковику, что не хотели бы видеть страницу в индексе, а вносить ее или нет - он сам решает.

Проверьте склейку доменов.

Всего: 1040