Kenji

Рейтинг
137
Регистрация
06.05.2010
XPraptor:
Зря не думаете. Именно в последней подкрутке алго это и сделали. Они долго анализировали склееные портянки доров с разных источников и вот добавили исправление как сумели, по анализу этому.

Поэтому, пострадали не только склеенные портянки, но и просто одиночные скопировнаные материалы сайта, а если процент таковых на сайте переходит определенную отметку процента - то и весь сайт теряет траф, хотя в индексе и есть все страницы.

Интересует ваше мнение относительно извечного спора - переписывать ли старые материалы, делать новые, или бросить все и уйти на завод :)

Ситуация такова - изначально уникальные статьи были долгое время в топе, но с годами были растащены по всяким жж-шечкам, дорам, фишко/бугага-помойкам и прочим местам. Соответственно, стали не уникальными, из выдачи исчезли вообще. Стоит ли переписывать старые наиболее траффиковые статьи с обновлением даты?

jkm:
    if ($request_uri ~ "^/\?q=&p=(\d+)") {
return 301 /page/$1;
}

Спасибо огромное, все работает. Еще один вопрос..

Эти страницы не имеют особой ценности, просто остались от старой версии и болтаются в вебмастере как дубли. Как бы вы посоветовали, редиректить их на основную пагинацию , или просто отдать ошибку 404, чтобы поисковики выкинули их из индекса ?

aleksandrbol:
Потом он опять их заново проиндексирует. Было уже такое. Но за совет спасибо.

Вообще, в вашем случае это выглядит самым правильным советом. Заново индексировать не должен потом

aleksandrbol:
так гугл ругается, говорит открой, ведь я всё равно проиндексировал. Рекомендует использовать тег, а не файл.

Видимо, вы закрыли эти страницы в роботс уже после индексации. На форумах гугла говорят, что ничего страшного в "Indexed, though blocked by robots.txt" нет - это стандартное предупреждение, чтобы вы проверили, не случайно ли страница оказалась закрытой в роботс.

aleksandrbol:
А как быть с коментами. т.е. есть страница (site.ru/page) на ней 50 коменнтов, и у каждого ссылка "Ответить на этот коммент" (site.ru/page/comment1, site.ru/page/comment2 и т.д). Есть смысл закрывать в роботсе /comment* или использовать теги?

Для упомянутой выше полноты картины сайта ссылка "ответить на коммент" не важна. лично я такое закрываю в robots.txt, наряду со страницами поиска и прочим

tylatong:
Расширенные сниппеты, видео в выдаче и т .д. здесь в теме много раз цитировали исследование, что все меньше и меньше пользователей покидает страницу поиска и переходит на сайты.

Тоже так думаю. Раньше третье место в выдаче давало неплохой траф. Сейчас же, после первого места идет блок на весь экран с картинками, потом блок сниппеты, потом видео. И даже второй позиции уже ничего не перепадает.

ziliboba0213:
Ну так сезонность, это первое, что пришло в голову :)

Сезонность у этого сайта была всегда летом, и для лета картинка вполне характерная. Но далее с сентября клики и показы продолжили падать..

MrServis:
Гугл любит всех зеленых, только в обоих местах

Снова проверил один из моих вч запросов с очень высокой конкуренцией - и ничего не изменилось. Моя страница на 5 месте, хотя по pagespeed мобайл в желтой зоне. Не поленился, и проверил всех конкурентов в десятке, и у всех мобайл в красной зоне, включая ресурсы с миллионной посещаемостью.

Интересный график, ctr остается прежним, средняя позиция даже подросла, но при этом клики и показы упали в три раза

jpg 1.jpg

Поковырялся вчера и сделал таки, добавив function (req,res) и строку res.status(404).render('error404') return

Всего: 298