Далеко не всегда проблема в зверинце, хотя почему-то проще сказать - да, поймал пингвин за ссылки. Возможных причин падения трафика множество. Если это только произошло - просто проанализируйте ПОЧЕМУ он упал, с каких ключей и т.д.
Тогда нужно смотреть ресурс, запросы, конкурентов. Возможно, это просто сезонный спад. Может ваше "для людей" людям и не нравится. А может у вас сайт на 2м месте, а на 1м отзыв крайне негативный о вашей фирме? (кстати, реальный случай - потому и не кликали) :)
Или к гадалкам за помощью, т.к. тут вряд ли вслепую определят проблему.
Если вы обнаружите ссылка на других сайтах - как вы их уберете? Можно, конечно, написать вебмастерам, чтобы исправили или сняли, но крайне редко они это делают.
Но если вдруг такую ссылку поставили на полезном форуме, например, и на нее идет трафик - поставить 301 редирект на главную, чтобы трафик не терять.
В роботс вы никак не закроете ссылки с чужих сайтов.
Если на вашем сайте - исправляйте ссылку на правильную. На страницу - 404.
Многое зависит от задач. Если клиент хочет иметь продажи с сайта, который уже получает прилично трафика - я бы сделала магазин разделом сайта, а не на отдельном и не на поддомене. И на главной, возможно, товары и т.п. А новости-статьи отодвинула на второй план.
Отдельный сайт и поддомен - это разные сайты, которые нужно с нуля продвигать, тратить время, деньги. Зачем, если есть ресурс с "историей" и трафиком?
Но если ваш сайт-визитка под фильтрами - тогда другое дело.
Т.е. нужно анализировать сайт с учетом конечной цели, которую хочет получить заказчик и решать.
Быстро анализируйте ситуацию. Страницы выпали? Какие? Совсем или из ТОП10. Все выпали или часть или только ВЧ ключи. Какой трафик вы теряете? Сайт доступен? Не закрыт для индексации? Откуда переходят люди, куда при этом попадают.
Если падение произошло недавно - может просто сайт был недоступен какое-то время и спустя пару недель все восстановится.
Либо определять какая именно зверушка вас укусила и пытаться задобрить зверя, внося необходимые изменения :)
1. просканить сайт, я использую PageWeight - проверить внутренние ссылки
2. лучше собрать ссылки с нескольких источников - wmt, ahrefs и т.д., все, что вам подходит, любые сервисы. Но все они показывают часть данных, потому лучше собрать с нескольких. В том же ahrefs можно проверить внешние ссылки на конкретную страницу, а не на весь сайт.
Дубли для сайта критичны. Склейка проходит не сразу, нужно время. Бывает пара месяцев, бывает и год висят страницы в индексе.
Закрыть в роботс - это не указание не индексировать, а просьба. Если на такой адрес поставили ссылок, например, то страница войдет в индекс. Проверьте ссылочное, в том числе и на сайте - может какой менеджер влепил в тексте такой линк. И отдавайте по адресу 404 обязательно.
Иногда входит по неведомым простым смертным причинам :) Просто потому, что вы не закрываете от индексации, а даете знать поисковику, что не хотели бы видеть страницу в индексе, а вносить ее или нет - он сам решает.
Проверьте склейку доменов.