Три месяца тому назад полетели позиции в гугле.

12
B
На сайте с 20.12.2012
Offline
26
1167

Добрый день.

Имеется сайт: лаймен - мужской портал. Сайту 1 год.

Достаточно хорошие, стабильные позиции по яндексу сейчас. После 3 месяцев функционирования сайта - позиции сайта по гуглу стали в топ, но потом они начали день за днем уходить, и вот уже через 7 месяцев функционирования все скатилось в попу.

Закупка ссылок немного оживило ситуацию, но позиции застряли в топ 30-40, и по прежнему в них стоят.

Ситуация:

Ситуация с кейвордами и дискрпишеном такая, что они ставятся только на раздел. А каждая статья получает такой титл: "Название статьи - название раздела".

ЧПУ сделать из-за особенностей движка нельзя.

Когда на странице комментарий больше 25, то она замораживается и создается, подстраничка . (например для статьи: http://lieman.ru/articles/rasstavanija/?idnews=221 ). Это выглядит как:

http://lieman.ru/articles/rasstavanija?page=4&idnews=221

Все это особенности движка. Насколько сильно это влияет на ранжирование, и какие еще косяки есть?

N
На сайте с 17.06.2013
Offline
12
#1

Что мешает сменить двиг?

Любимый цвет: зелёный
Zegeberg
На сайте с 30.09.2010
Offline
297
#2

Вижу "название статьи - название сайта", что не смертельно. По Гуглу это надо изучать, возможно ссылочное в минус пошло, возможно аура. А вот <h2>Похожие&nbsp;статьи</h2> и <h1>Статьи (Публикации)</h1> это в любом случае плохо и это то что сразу в коде режет глаз.

Ссылки с форумов, блогов и соц сетей ( https://forumok.com/p/c1710b6b/ ) Создание, настройка и ведение РК Директ
SM
На сайте с 07.06.2012
Offline
30
#3
Bakotiinii:
Добрый день.

Имеется сайт: лаймен - мужской портал. Сайту 1 год.

Достаточно хорошие, стабильные позиции по яндексу сейчас. После 3 месяцев функционирования сайта - позиции сайта по гуглу стали в топ, но потом они начали день за днем уходить, и вот уже через 7 месяцев функционирования все скатилось в попу.

Закупка ссылок немного оживило ситуацию, но позиции застряли в топ 30-40, и по прежнему в них стоят.

Ситуация:

Ситуация с кейвордами и дискрпишеном такая, что они ставятся только на раздел. А каждая статья получает такой титл: "Название статьи - название раздела".

ЧПУ сделать из-за особенностей движка нельзя.

Когда на странице комментарий больше 25, то она замораживается и создается, подстраничка . (например для статьи: http://lieman.ru/articles/rasstavanija/?idnews=221 ). Это выглядит как:
http://lieman.ru/articles/rasstavanija?page=4&idnews=221

Все это особенности движка. Насколько сильно это влияет на ранжирование, и какие еще косяки есть?

Есть смысл проверить на дубли и на уникальность контент. По симптомам - панда.

B
На сайте с 20.12.2012
Offline
26
#4

А если закрывать дубли от гугла- то это исключать урлы в самом гугле (через вебмастер) или пилить в роботе? Как лучше это сделать?

september
На сайте с 11.09.2009
Offline
591
#5

Вы, кстати, не сказали о наличии ручных фильтров на сайт. Может есть смысл сначала их проверить?

$ карта для вывода вебмани в любой точке мира (https://www.epayments.com/registration?p=dc2462e885)
B
На сайте с 20.12.2012
Offline
26
#6

Ручных нет. Проверял.

E
На сайте с 21.09.2009
Offline
283
#7
Bakotiinii:
Ручных нет. Проверял.

на обоих зеркалах с ввв и без смотрели?

SM
На сайте с 07.06.2012
Offline
30
#8
Bakotiinii:
А если закрывать дубли от гугла- то это исключать урлы в самом гугле (через вебмастер) или пилить в роботе? Как лучше это сделать?

Закрывать в роботах не правильно. Дубль не исчезает при этом.

Варианты для дублей, выбирайте:

1. 301 на "правильную" страницу

Хорошо для передачи веса, особенно если были внешние ссылки на дубль. Сработает через 2-4 недели.

2. отдавать 404 или 410

Вес теряется, т.к. не передается как в п.1

410 - срабатывает в гугле быстрее чем 404... Сработает как только гуглобот пройдет по всем страницам-дублям.

3. Внутри тег robots=noindex и canonical на оригинальную страницу

Вес не передается, страница выбрасывается из индекса. Сработает как только гуглобот пройдет по всем страницам-дублям.

Алексей
На сайте с 23.02.2009
Offline
580
#9
Sergio Maricone:
Закрывать в роботах не правильно. Дубль не исчезает при этом.

Это почему? Может руки кривые? 😂

SM
На сайте с 07.06.2012
Offline
30
#10
Алексей Питерский:
Это почему? Может руки кривые? 😂

Тут на форуме все или экстрасенсы и/или врачи, диагноз ставят с лету...

Закрыть в роботах - поставить запрет гуглу на индексацию страницы УЖЕ им проиндексированной, а не на выбросить ее из индекса.

Или предлагаете, чтоб у него в "голове" она продолжала "висеть" в виде дубля, пока он через 4-8 месяцев про нее не забудет? Ну, можно и так. Только я так понимаю ТС хочет все сделать гораздо быстрее...

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий