Sergio Maricone

Рейтинг
30
Регистрация
07.06.2012
Gennadi:
Если с запингвинненых сайтов то это да😂😂

301 редирект для сервера пишется а не для гугла.☝

Угу.. только если гугл уже сожрал 1К страниц, а потом они вдруг все 301 на 1, то не важно, запингвиненный сайт или вот вот таковым станет :)

anebilitsa:
Зачем? Не проще ли было сделать 301?

Гм... как бы палка от 2х концах... гугл может и включить писсимизацию, за большое число 301... у меня есть личный опыт...

Знать бы, где начинается это "большое число"...

korben1989:
Самописный двиг, проверяю данным запросом для гугла site:сайт.ру - site:сайт.ру/&, выдает главные рубрики в этом индексе. Вопрос, как найти дубли рубрик, и их убрать?

Только вручную... та же команда site:тут_ссылка_которую_проверяете

Если будут дубли, то выведет больше 1ой страницы

Afonasiy:
Так а где ж ее учить? Дайте ссылку или сноску хотя бы. Я вам цитату привел с подписью "автора", а вы мне про какой то мат часть пишете. Кто он вообще такой?

Автора не назову, как вряд ли Вы назовете его из вики... но у гугла я спросил

http://support.google.com/webmasters/bin/answer.py?hl=en&answer=79812

http://searchengineland.com/google-explains-the-noindex-nofollow-noarchive-nosnippet-meta-tags-10595

http://noarchive.net/meta/

---------- Добавлено 04.04.2013 в 17:26 ----------

Вот еще, в официальном гуглоблоге (6 лет назад, кстати)

http://googleblog.blogspot.com/2007/02/robots-exclusion-protocol.html

Afonasiy:
Тег (noindex) предложен российской компанией «Яндекс» в качестве альтернативы атрибуту nofollow и в настоящее время только им и распознаётся (c) вика... При чем тут гугл?

Учите матчасть

<meta name="robots" content="index, follow">

Если заменить на noindex, то гугл выбрасывает уже слопаную страницу отовсюду... ну, или не индексирует ее вовсе, если изначально было прописано не индексировать

Regdomain:
Сайт 5 лет, был в топе5, после ссылочной спам атаки вылетел из выдачи по ВЧ. По совпадению назрела распилка сайта. Выводится из сайта форум на отдельный поддомен и база дана типа вики - большой объем уникальных статей. Изменяются алиасы всех выводимых страниц. На главном сайте остается чуть более 100 уникальных материалов с постоянным приростом.

Цель - вывод новых площадок в топ5.

Как правильнее всего сделать подобный вывод? Достаточно ли просто сделать переиндексацию сайта роботом, чтобы он убрал старые алиасы? Или следует сначала убрать материалы для переноса, сделать переиндексацию сайта и только потом публиковать на новых площадках?

Как может отразится сквозняк с главного меню фильтрованного сайта на новых площадках? Может имеет смысл ставить редирект?

Вылезет куча дублей... переехал с одного домена на второй и на старом была масса дублей и битых страниц... до сих пор отхаркиваюсь...

Я бы сделал так:

1. Контент, который нужно перенести, поставил бы внутри старниц noindex

2. Дал бы гуглу 2-5 недель, на сожрать и выкинуть это все из индекса

3. Убедившись, что все удалено им, запустил бы контент на новых площадках

xVOVAx:
Если это было 6 го октября то могут быть иные причины падения обсуждаемый в каждой втрой теме в этом разделе с 24 апреля☝

Нет, было 3го... на 3ий день, как я сменил все на сайте... видимо после того, как сожрал бОльшую часть обновленного контента

После того, как я сменил врестку и дизайн, не меняя тематики, заголовки, урлы и т.п. тоже остались, сайт упал и пока не поднялся до прежних уровней... Дело было в начале октября...

Там правда много других нюансов с 301 переездом и т.п. Но с преходом на стили после табличной верстки, убирание дублей, уменьшения времени загрузки сайта и улучшение юзабилити, как-то очень слабо на гугл воздействуют... пока, по крайней мере

Всего: 288