Вопрос, закрывать ли страницы от индексации или оставить?

1NVADER
На сайте с 25.12.2010
Offline
56
578

У меня сайт на DLE, каждый день я добавляю по 5 страниц контента. На сайте ведутся работы только по привлечению НЧ трафика, поэтому на нем нет ни категорий ни открытых для индекса ненужных страниц... Благодаря перелинковке, НЧ сами выводятся в ТОП :idea:

Для тех кто пользуется DLE не секрет, что DLE добавляет страницы вида: http://site.com/2012/03/05/ (материалы за день, в моем случае выводятся 5 станиц добавленных за сегодня, и так каждый день) то есть совершенно не нужные страницы...в шаблоне на такие страницы ссылок нет... да и вообще в шаблоне только 6 ссылок на "левые страницы не по теме" типа: Обратная связь, О сайте, Правообладателям ... все они закрыты для индекса через robots.txt

Вопрос:

1. По сути, на эти страницы ссылок нет и вес на них не перетекает, закрывать ли их от индекса, или от них никакого вреда не будет если они будут сидеть в индексе?

2. 6 ссылок на "левые страницы не по теме" сквозные, но закрыты, как я писал выше, через robots.txt. Скажите, не перетекает ли вес на эти страницы?

Интересные факты | ADZI.RU (http://adzi.ru)
D3
На сайте с 26.02.2012
Offline
3
#1
1NVADER:
У меня сайт на DLE, каждый день я добавляю по 5 страниц контента. На сайте ведутся работы только по привлечению НЧ трафика, поэтому на нем нет ни категорий ни открытых для индекса ненужных страниц... Благодаря перелинковке, НЧ сами выводятся в ТОП ☝

Для тех кто пользуется DLE не секрет, что DLE добавляет страницы вида: http://site.com/2012/03/05/ (материалы за день, в моем случае выводятся 5 станиц добавленных за сегодня, и так каждый день) то есть совершенно не нужные страницы...в шаблоне на такие страницы ссылок нет... да и вообще в шаблоне только 6 ссылок на "левые страницы не по теме" типа: Обратная связь, О сайте, Правообладателям ... все они закрыты для индекса через robots.txt

Вопрос:

1. По сути, на эти страницы ссылок нет и вес на них не перетекает, закрывать ли их от индекса, или от них никакого вреда не будет если они будут сидеть в индексе?

2. 6 ссылок на "левые страницы не по теме" сквозные, но закрыты, как я писал выше, через robots.txt. Скажите, не перетекает ли вес на эти страницы?

я закрыл такие страницы http://site.com/2012/03/05/ в роботс, т.к гугл отмечает их как Повторяющееся метаописание и количество их уж очень большое, у меня более 600, мне кажется это не гуд.

1NVADER
На сайте с 25.12.2010
Offline
56
#2
dima39rus:
я закрыл такие страницы http://site.com/2012/03/05/ в роботс

да вот у меня тоже большое...

закрыли так: Disallow: /2012/

правильно?

D3
На сайте с 26.02.2012
Offline
3
#3

у меня попали в индекс аж такие /1970/01/, закрывал

*/01/*

*/02/* и так до */12/*

другого не придумал, движок 9.2

1NVADER
На сайте с 25.12.2010
Offline
56
#4
dima39rus:
у меня попали в индекс аж такие /1970/01/, закрывал
*/01/*
*/02/* и так до */12/*
другого не придумал, движок 9.2

у меня 9.5, пока в индексе таких страницы нет... думаю из-за того что ссылок на них нет с сайта, но думаю они появятся если их не закрыть через роботс.

Считаю достаточно закрыть только /1970/ ... этот год вообще не будет индексировать потом, также как и я, закрою /2012/ а когда придет 2013 закрою и его и т.д. :)

S
На сайте с 18.06.2011
Offline
24
#5

естественно весь дублирующий контент стоит закрывать в индексе - это относится и к таким страницам. на других движках реализовывал через meta name="robots" content="noindex, follow"

Т.е. если страницу посещает робот - ссылки индексируются и робот по ним переходит, но контент со страницы в индексе не участвует. можно ещё noarchive приписать - страницы не будут попадать в кэш.

Можете почитать документацию по ссылке

В вашем случае это будет более удобный вариант.

НО: как реализовать такое на DLE не знаю.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий