Распилка сайта находящегося под фильтрами гугла

12
R
На сайте с 28.09.2010
Offline
24
1102

Сайт 5 лет, был в топе5, после ссылочной спам атаки вылетел из выдачи по ВЧ. По совпадению назрела распилка сайта. Выводится из сайта форум на отдельный поддомен и база дана типа вики - большой объем уникальных статей. Изменяются алиасы всех выводимых страниц. На главном сайте остается чуть более 100 уникальных материалов с постоянным приростом.

Цель - вывод новых площадок в топ5.

Как правильнее всего сделать подобный вывод? Достаточно ли просто сделать переиндексацию сайта роботом, чтобы он убрал старые алиасы? Или следует сначала убрать материалы для переноса, сделать переиндексацию сайта и только потом публиковать на новых площадках?

Как может отразится сквозняк с главного меню фильтрованного сайта на новых площадках? Может имеет смысл ставить редирект?

SM
На сайте с 07.06.2012
Offline
30
#1
Regdomain:
Сайт 5 лет, был в топе5, после ссылочной спам атаки вылетел из выдачи по ВЧ. По совпадению назрела распилка сайта. Выводится из сайта форум на отдельный поддомен и база дана типа вики - большой объем уникальных статей. Изменяются алиасы всех выводимых страниц. На главном сайте остается чуть более 100 уникальных материалов с постоянным приростом.

Цель - вывод новых площадок в топ5.

Как правильнее всего сделать подобный вывод? Достаточно ли просто сделать переиндексацию сайта роботом, чтобы он убрал старые алиасы? Или следует сначала убрать материалы для переноса, сделать переиндексацию сайта и только потом публиковать на новых площадках?

Как может отразится сквозняк с главного меню фильтрованного сайта на новых площадках? Может имеет смысл ставить редирект?

Вылезет куча дублей... переехал с одного домена на второй и на старом была масса дублей и битых страниц... до сих пор отхаркиваюсь...

Я бы сделал так:

1. Контент, который нужно перенести, поставил бы внутри старниц noindex

2. Дал бы гуглу 2-5 недель, на сожрать и выкинуть это все из индекса

3. Убедившись, что все удалено им, запустил бы контент на новых площадках

Afonasiy
На сайте с 28.03.2012
Offline
83
#2
Sergio Maricone:
Вылезет куча дублей... переехал с одного домена на второй и на старом была масса дублей и битых страниц... до сих пор отхаркиваюсь...

Я бы сделал так:

1. Контент, который нужно перенести, поставил бы внутри старниц noindex
2. Дал бы гуглу 2-5 недель, на сожрать и выкинуть это все из индекса
3. Убедившись, что все удалено им, запустил бы контент на новых площадках

Тег (noindex) предложен российской компанией «Яндекс» в качестве альтернативы атрибуту nofollow и в настоящее время только им и распознаётся (c) вика... При чем тут гугл?

Никогда такого не было, и вот опять.
SM
На сайте с 07.06.2012
Offline
30
#3
Afonasiy:
Тег (noindex) предложен российской компанией «Яндекс» в качестве альтернативы атрибуту nofollow и в настоящее время только им и распознаётся (c) вика... При чем тут гугл?

Учите матчасть

<meta name="robots" content="index, follow">

Если заменить на noindex, то гугл выбрасывает уже слопаную страницу отовсюду... ну, или не индексирует ее вовсе, если изначально было прописано не индексировать

Afonasiy
На сайте с 28.03.2012
Offline
83
#4
Sergio Maricone:
Учите матчасть
<meta name="robots" content="index, follow">

Если заменить на noindex, то гугл выбрасывает уже слопаную страницу отовсюду... ну, или не индексирует ее вовсе, если изначально было прописано не индексировать

Так а где ж ее учить? Дайте ссылку или сноску хотя бы. Я вам цитату привел с подписью "автора", а вы мне про какой то мат часть пишете. Кто он вообще такой?

SM
На сайте с 07.06.2012
Offline
30
#5
Afonasiy:
Так а где ж ее учить? Дайте ссылку или сноску хотя бы. Я вам цитату привел с подписью "автора", а вы мне про какой то мат часть пишете. Кто он вообще такой?

Автора не назову, как вряд ли Вы назовете его из вики... но у гугла я спросил

http://support.google.com/webmasters/bin/answer.py?hl=en&answer=79812

http://searchengineland.com/google-explains-the-noindex-nofollow-noarchive-nosnippet-meta-tags-10595

http://noarchive.net/meta/

---------- Добавлено 04.04.2013 в 17:26 ----------

Вот еще, в официальном гуглоблоге (6 лет назад, кстати)

http://googleblog.blogspot.com/2007/02/robots-exclusion-protocol.html

R
На сайте с 28.09.2010
Offline
24
#6

Может проще запретить индексацию через роботс.тхт? Статей более 3000 так что вряд ли удастся контент в эти тэги впихнуть. Да ис форумом такой номер вроде не проходит. А иметь дубли на него совсем не хочется

SM
На сайте с 07.06.2012
Offline
30
#7
Regdomain:
Может проще запретить индексацию через роботс.тхт? Статей более 3000 так что вряд ли удастся контент в эти тэги впихнуть. Да ис форумом такой номер вроде не проходит. А иметь дубли на него совсем не хочется

Задача какая? Запустить тот же контент где-то еще, верно?

Если закрыть в роботс, то робот туда перестанет заходить, но в памяти гугла останутся проиндексированные страницы... И, как следствие, любое всплытие аналогичного контента где-то еще, будет расценено им как дубли...

Из моего опыта, в памяти "висят" страницы по 7-9 месяцев...

Поэтому контент нужно "вынести" из памяти гугла... Проще всего, прописав в метатеге noindex, follow

R
На сайте с 28.09.2010
Offline
24
#8

ясно

а что делать с форумом?

SM
На сайте с 07.06.2012
Offline
30
#9
Regdomain:
ясно
а что делать с форумом?

В зависимости от задачи... если нужно его запустить тоже, то поступить как описано выше, или, закрыть его нафик... я ж не знаю, какие цели и на сколько он полезен и живой

R
На сайте с 28.09.2010
Offline
24
#10

Живой , активный. Он технически остается там же, но переезжает на новый домен. Получается, что гугл сразу определит его как дубль и склеит, оставив индексирование за старым доменом.

На форуме вроде как нет мета описания и закрыть его подобными тэгами невозможно

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий