Большой каталог.

W
На сайте с 14.03.2011
Offline
111
wnt
1327

Добрый вечер.

Есть сайт - 45000 страниц, в индексе 5000 страниц (роботом закрыто всего 3 страницы от индексации). То-есть яша 40000 страниц выкинул как дубли. Большинство из них (99%) это страницы каталога, который выглядит мягко говоря не айс, уникальных описаний нету. Да и видок - как будто базу данных листаешь.

По каталогу двигать ничего не планируется.

Внимание вопрос - самый верный вариант - закрыть весь каталог к чертям от индексации в robots.txt ?

Некоторые запросы в топе по морде на данный момент - такое сокращение страниц в индексе может как-то повлиять на позиции, или на "борьбу" с конкурентами ?

PS Если закрыть каталог - останется стрнаничек 50 всего.

PSS. Сайт уже довольно давно в таком положении, но как-то стремно, что схватит в один момент за такое количество дублей.

aii
На сайте с 26.07.2007
Offline
94
aii
#1

Не понятно, какую цель преследует автор.

W
На сайте с 14.03.2011
Offline
111
wnt
#2

Цель закрыть все дубли от индексации.

А каталог там по сути и есть - один большой дубль.

wnt добавил 20.04.2011 в 10:53

Или вообще этого не стоит делать, и оставить все как есть ?

wnt добавил 20.04.2011 в 15:28

Ну так господа - будут мнения, повлияет ли это на позиции в целом ?

Если от 5000 страниц в индексе останется штук 50 ?

Или не трогать и пусть будет все как есть ?

L1
На сайте с 06.03.2011
Offline
10
#3

Не понятно, какую цель преследует автор.

W
На сайте с 14.03.2011
Offline
111
wnt
#4

А что не ясного-то ???

Есть сайт, много дублей в каталоге, яша сам их режет. Чтобы не получить в один день за дубли санкции - закрыть их от индексации в роботс, как решение данной проблемы - нормальное ?

Но если у сайта в индексе останется штук 80 страниц, от былых 5000, не скажется ли это на позициях ?

suvorov.r
На сайте с 25.11.2010
Offline
15
#5
wnt:
А что не ясного-то ???

Есть сайт, много дублей в каталоге, яша сам их режет. Чтобы не получить в один день за дубли санкции - закрыть их от индексации в роботс, как решение данной проблемы - нормальное ?

Но если у сайта в индексе останется штук 80 страниц, от былых 5000, не скажется ли это на позициях ?

Мужик, вот и я порой не понимаю этих умников)

Короче, на позиции повлияет, в robots.txt убирать нужно.

L1
На сайте с 06.03.2011
Offline
10
#6

Все равно непонятно, какую цель преследует автор.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий