Panda 4.1.

DK
На сайте с 28.03.2010
Offline
54
#31
Armagedonik:

И 150К страниц с 404 ошибкой, как мне кажется, не очень хорошо.

особенно если на них стоят внутренние ссылки

v1st
На сайте с 19.03.2014
Offline
29
#32
ХорошийЧеловек:
У меня вот только что уникальный+бестолковый контент для людей попал под панду.

Врядли за ПФ+скорость загрузки сайта можно попасть под Панду. За это сайт просто хуже ранжируется.

Я ж об этом и говорю, что уникальный, но бестолковый контент - не катируется. И при помощи поведенческих очень легко вычислить, что контент, бестолковый и не интересен людям :-)

Вот рекомендовал бы, если интересно, почитать, блог человека, которые специализируется только на панде. Про поведенческие он пишет в каждом посте.

http://www.hmtweb.com/marketing-blog/panda-4-temporary-recovery-case-study/


I’ve mentioned many times in Panda blog posts the importance of strong engagement. Google has several ways to measure user engagement, but one of the easiest ways is via dwell time. If someone clicks through a search result on Google, visits a page, and quickly clicks back to the search results, that’s a pretty clear signal that the user didn’t find what they wanted (or that they didn’t have a positive user experience). Low dwell time is a giant invitation to the mighty Panda.
ХЧ
На сайте с 27.06.2014
Offline
26
#33
Armagedonik:
Да это очень тяжело. Мы метатег прописали
<meta name='robots' content='noindex' />

Думаю этого достаточно должно быть.
И заметно, что часть этих страниц за месяц уже вылетела у Гугла из индекса.

И 150К страниц с 404 ошибкой, как мне кажется, не очень хорошо.

Вот это действительно странно :) Должно быть наоборот.

Если 90% вылетит из индекса и больше не войдет в индекс - напишите мне в личку (если потом вспомните).

Буду считать это экспериментом.

А вообще, даже если эти страницы уйдут из индекса таким образом, то робот все равно будет дальше к ним обращаться для выкачки (как показывает практика)

У Вас на них ссылки еще есть где-нибудь? Закрытие в метатегах и роботсе не дает гарантии что это страница не будет выкачиваться. Т.е. бот ее и дальше может выкачивать, только не размешать в индексе.

Вам нужно чтобы просто так 150 000 страниц постоянно сканировались?

404-ая даст боту знать, что ее больше нет.

A
На сайте с 08.08.2007
Offline
149
#34
ХорошийЧеловек:
Вот это действительно странно :) Должно быть наоборот.

У Вас на них ссылки еще есть где-нибудь? Закрытие в метатегах и роботсе не дает гарантии что это страница не будет выкачиваться. Т.е. бот ее и дальше может выкачивать, только не размешать в индексе.

Вам нужно чтобы просто так 150 000 страниц постоянно сканировались?

404-ая даст боту знать, что ее больше нет.

Это страница с оценками рейтинга материала.

На них ссылки с огромного количества страниц.

На них просто так невозможно ссылки снять. Надо огромный кусок сайта переделывать. Можно, конечно, на все ссылки на эти страницы тег nofollow ставить, но не борьба ли это с ветряными мельницами? Так можно совсем весь сайт закрыть.

Или все же стоит напрячься и поставить тег?

ХЧ
На сайте с 27.06.2014
Offline
26
#35
Armagedonik:
Это страница с оценками рейтинга материала.
На них ссылки с огромного количества страниц.

На них просто так невозможно ссылки снять. Надо огромный кусок сайта переделывать. Можно, конечно, на все ссылки на эти страницы тег nofollow ставить, но не борьба ли это с ветряными мельницами? Так можно совсем весь сайт закрыть.
Или все же стоит напрячься и поставить тег?

Скажу так, по опыту, хоть в роботс, хоть в nofollow, гугл бот все равно будет щарахаться по Вашему сайту и качасть страницы.

Для меня стало откровение, что на уже проиндексированные страницы, если поставить noindex, то они удаляются из индекса.

Так вот, как я полагаю, если не будет 404 и будут ссылки на этот мусор, на них все равно будет ходить бот, скачивать, но в индекс не будет засовывать.

Если ему будет 404 возвращаться, то он должен удалить из индекса. Хотя я видел случаи, когда весь сайт удалялялся, но в индексе сидело все.

Лично я бы 404 сделал со страницей "Упс, нет ничего".

А так, даже если удалятся страницы 150 000 штук, то бот будет ходить по ним - запрещай, не запрещай.

Кстати, Яндекс бот тоже самое делает.

Вы предположили, что получили фильтр из-за мусора (по факту мы имеем 150 000 дублей страниц).

Ваша задача, согласно этому предположению, убрать их из индекса и сделать так, чтобы потом по ним не шарахался робот. Кроме как 404 убить двух зайцев других способов в 5 утра мне в голову не приходят.

Оптимизайка
На сайте с 11.03.2012
Offline
396
#36
ХорошийЧеловек:
404-ая даст боту знать, что ее больше нет.

404 - временно нет. 410 - больше нет http://searchenginewatch.com/article/2340728/Matt-Cutts-on-How-Google-Handles-404-410-Status-Codes

⭐ BotGuard (https://botguard.net) ⭐ — защита вашего сайта от вредоносных ботов, воровства контента, клонирования, спама и хакерских атак!
ХЧ
На сайте с 27.06.2014
Offline
26
#37
Оптимизайка:
404 - временно нет. 410 - больше нет http://searchenginewatch.com/article/2340728/Matt-Cutts-on-How-Google-Handles-404-410-Status-Codes

А, так судя по статье 410 и вперед :)

D1
На сайте с 15.02.2013
Offline
78
#38
storea:
Могу потвердить падение трафика 23 числа на 15-20%. Сайт уже был под Пандой, но с конца августа были позитивные движения по трафику.

У меня падение 23-го на 90% 😡

Подозреваю что реклама, так как тексты пишу сам (правда в кулинарии уникальность спорный момент), фото все свои. Грешу на рекламу, неоднократно слышал что за тизеры от Гнезда бывает беда. Вот думаю, что теперь делать(((

project33
На сайте с 30.04.2011
Offline
94
#39

403 Forbidden выкидывает страницы быстро и надолго

ХЧ
На сайте с 27.06.2014
Offline
26
#40
project33:
403 Forbidden выкидывает страницы быстро и надолго

отличная идея

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий