NewNuma

NewNuma
Рейтинг
67
Регистрация
27.05.2010

Также наблюдаю падение позиций в гугле примерно по 70%-80% запросов. Хотя никаких изменений в последние несколько месяцев на сайте не производилось.

[ATTACH]106171[/ATTACH]

jpg 106171.jpg

Если учесть, что обычно у страниц разделов довольно неплохой вес, то есть смысл передать этот вес продвигаемым статьям. :)

The WishMaster:
Мне сложно понять эти пункты... особенно "возраст контента". Что такое "контент страницы"? Если поменять 10% - будет новый контент или старый?:) И т. п. Бред какой-то.

Да я и сам не знаю, что означают и как рассчитываются эти проценты. Просто по их "методике" этот фактор важно учитывать при продвижении. А как он учитывается мне не понятно. Как всегда мнения разделились)) Некоторые говорят что возраст влияет, некоторые что не влияет. Видимо придется самому проверять и экспериментировать. 🙄

astronom_2:
Возраст домена имеет большое значение.Но не определяющее.

Наверное все-таки есть значение, но небольшое и неопределяющее. Не знаю как они считают, но на топэксперте пишут:

Возрастные факторы

Возраст индексации 83%

Динамика появления уникального контента на сайте 59%

Возраст домена 55%

Возраст URL страницы 55%

Динамика появления контента на сайте 51%

Возраст контента на странице 46%

XeqtR:
Ну я имею ввиду свой старый домен на катором была заглушка..
The WishMaster:
Если была заглушка - вероятность фильтров еще больше.

Мне лично интересно если на сайте была не заглушка, а несколько страниц в индексе. Как в этом случае? За что могут быть фильтры?

Keep moving:
Следуя вашей логике, вы рассчитываете через 1 год, добавив новые статейки, автоматом выйти по ним в топ? Это бредовая идея. Начинайте развивать сайты уже сейчас

Не просто выложить новые статьи и выйти в топ, а вкладываться в полноценное развитие с добавлением уникального контента, покупкой ссылок, нормального дизайна и т.д. Просто пытаюсь выяснить проще будет развивать сайт на домене с возрастом или же будет такой же эффект как и у нового сайта?

Наконец-то долгожданный ап... :)

1 => 2

0 => 1

sainty:
Именно потому не удаляются страницы, что в вашем robots.txt нет на то указаний. Ни в Гугле, ни в Яндексе у меня не получилось заказать удаление страниц через панель вебмастера до тех пор, пока я не добавил в роботсе вручную для каждого дубля что-то вроде (для вашего случая):


Disallow: /категория/66?sectionid=0&bsb_midx=0
Disallow: /категория/71?sectionid=0&bsb_midx=-1
Disallow: /категория/71?sectionid=0&bsb_midx=-3
Disallow: /index.php?start=21&bsb_midx=-2
Disallow: /component/content/article/60?sectionid=0&bsb_midx=-4

у меня на Джумле пока что работало...

Спасибо за совет... попробую добавить в роботс отдельно каждый дубль. Правда их более 150.. :o Только вот вопрос, а заблокируются именно эти страницы? А страницы вида: сайт.ру/категория/название_статьи останутся доступны, т.е. все что идет после категории? Просто я в роботс не очень разбираюсь.

Mirotvoretz:
Если CMS - Joomla, то статья по поводу борьбы с дублями есть на этом сайте, например.

К сожалению мой случай там не рассматривается. А у меня еще и почти в каждом дубле есть ID статьи... 😒

NewNuma добавил 03.01.2011 в 19:50

Подскажите кто-нибуть, что нужно прописать в роботс, чтобы не индексировались подобные страницы:

сайт.ру/категория/66?sectionid=0&bsb_midx=0

сайт.ру/категория/71?sectionid=0&bsb_midx=-1

сайт.ру/категория/71?sectionid=0&bsb_midx=-3

сайт.ру/index.php?start=21&bsb_midx=-2

сайт.ру/component/content/article/60?sectionid=0&bsb_midx=-4

faedrus:
так действительно, запретите в роботсе, хотя это тоже не будет 100% гарантией

А как правильно в роботс прописать чтобы они удалились и больше не индексировались?

1 234
Всего: 32