Выход из под фильтра гугл за неуникальный контент [как выйти]

Solmyr
На сайте с 10.09.2007
Offline
501
663

Есть сайт, который давным давно попал под фильтра гугла за неуникальный контент (Панда) по датам наложения фильтра вроде как было похоже. Сайт делается в общем-то "для души" и нескольких лояльных постоянных пользователей, потому в свое время я на это не обратил внимание, сосредоточившись на основных проектах. Сейчас немного дошли руки для этого сайта.

Собственно вопрос в том, для выхода из под этого фильтра, неуникальный контент обязательно именно удалить, или достаточно добавить в meta "robots noindex"? Также еще есть вариант, отдавать на этих страницах 403, то есть сделать их доступным только зарегистрированным пользователям, либо пользователям принимающим куки (в этом случае вопрос, не посчитает ли гугл это клоакингом).

Vladimir SEO
На сайте с 19.10.2011
Offline
1357
#1

А как вы определили фильтр панда?

ᐈ Лучшая проверка позиций http://allpositions.ru/redirect/10965 ᐈПродвижение коммерческих сайтов https://kulinenko.com/
antonio83
На сайте с 03.10.2011
Offline
91
#2

Не надо ничего удалять. Переписывайте материал, доводите до уникальности. Будет и для вас, посетителей и для ПС счастье. Тем более что информация на вашем копипасте 100% устарела. Вот и пишите что актуально сегодня.🚬

Solmyr
На сайте с 10.09.2007
Offline
501
#3
xVOVAx:
А как вы определили фильтр панда?

По дате. Давно это было сейчас не нагуглю. Но был список дат, и у меня дата уменьшения трафика совпала с этим списком.

antonio83:
Не надо ничего удалять. Переписывайте материал, доводите до уникальности. Будет и для вас, посетителей и для ПС счастье. Тем более что информация на вашем копипасте 100% устарела. Вот и пишите что актуально сегодня.🚬

Вот не надо относиться ко всем сайтам в интернете, как к трафикособирающим статейникам. Это поисковая система по определенному материалу. Людям нужная функция - именно поиск. Но после поиска желательно иметь возможность материал просмотреть. Там не весь материал старый, есть и новый но тоже копированный, но старый тоже нужен. Изменять ничего нельзя - тогда смысл вообще пропадет. Можно дополнять дополнительными данными и как-то за счет этого "уникализировать" но так я делал бы если бы это был бы коммерческий проект. Для некоммерческого овчинка выделки не стоит.

Потому варианты такие:

1. meta noindex

2. 403

3. 404 с клоакингом

4. Ничего не делать

Петр Лях
На сайте с 23.02.2013
Offline
133
#4

Тут по статейнику то сложно что то заочно сказать, а у вас метапоисковик тематический, его ведь сильно по разному можно реализовывать.

Смотрели данные Гугл вебмастера, какой там в покрытии примерный процент исключенных страниц, особенно со статусом Страница просканирована, но пока не проиндексирована и Страница является копией?

Какие типы страниц там являются посадочными для Гугла?

Результативное продвижение сайта ( https://searchengines.guru/ru/forum/964018 ) Услуги по seo и usability ( http://windakolit.com )
Solmyr
На сайте с 10.09.2007
Offline
501
#5
Windakolit:
Смотрели данные Гугл вебмастера, какой там в покрытии примерный процент исключенных страниц, особенно со статусом Страница просканирована, но пока не проиндексирована и Страница является копией?

"Просканирована но пока не проиндексирована", для данного раздела сайта, больше чем 95%. "Является копией" - такого нет вообще на сайте (не только для данного раздела).

Windakolit:
Какие типы страниц там являются посадочными для Гугла?

Посадочные - страницы других разделов сайта. Для данного раздела посадочная - только страница с формой поиска. То есть убирать страницы можно вообще не парясь. Однако нужно их оставить доступными для пользователей, в том числе и для незарегистрированных.

---------- Добавлено 17.11.2019 в 16:49 ----------

Windakolit:
его ведь сильно по разному можно реализовывать.

Страниц с результатами поиска в индексе нет и ссылки на них гуглу не доступны (кроме как через гугл аналитикс). Но [почти] все страницы материалов, по которым делается поиск, - на данный момент доступны индексированию и известны гуглу. Вот речь о том, как их правильно убрать. Единственно что я понимаю, что через robots.txt - точно нельзя.

Я пока вписал им meta noindex. Но вот думаю может лучше на них отдавать 403 или 404 тем у кого нет куки.

Всего страниц в разделе который нужно убрать около 350000 Гугл скачивает краулером в день именно из этого раздела (данные из анализа логов) обычно по 10000 страниц, иногда по 20000, но скачивает неравномерно многие скачивает повторно с интервалом 5-10 дней.

Петр Лях
На сайте с 23.02.2013
Offline
133
#6

Я бы тоже в такой ситуации остановился на meta noindex. Не уверен конечно на 100%, не видя пациента и всей ситуации, но исходя из указанной инфы думаю лучший вариант

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий