Переиндексация страниц

12 3
Unlock
На сайте с 01.08.2004
Offline
782
1524

Такая ситуация. Есть около 12 K страниц которые будут обновлены в скором времени, не то что бы глобально, но прилично. Все эти страницы в индексе, но очень многие в соплях. Сейчас думаю как лучше поступить, запретить эти страницы для индексации, через гугловский сервис удалить их из индекса и потом, после того как будут выложены обновленные страницы разрешить их для индексации или ничего не делать, гугл сам обновит все страницы со временем. Почему собственно хочу сначала удалить, а потом добавить, потому что страницы которые в соплях уж очень редко гугл посещает. Какие мнения будут?

Есть желание, - тысяча способов; нет желания, - тысяча поводов! /Петр-I/.
V
На сайте с 19.09.2005
Offline
155
#1

Unlock, зачем запрещать индексацию ?

просто меняйте контент + пробомбите ссылками по краям..должно помочь

Unlock
На сайте с 01.08.2004
Offline
782
#2

viktorleo, был бы уверен зачем, не спрашивал бы :) Просто предположил, вдруг так лучше будет.

FM
На сайте с 21.04.2004
Offline
125
#3

я недавно менял один свой портал ... там около 300к страниц было в индексе ...

я поставил 301 редирект - вроде прохавало... правда я сделал новыми линками всё

E
На сайте с 01.06.2007
Offline
4
#4

А не проще-ли после обновления добавить ссылок на внутряшки? И бот заглянет и сопли пропадут :).

mcphantom
На сайте с 23.11.2003
Offline
64
#5

Unlock, два варианта:

1) Запретить через robots и удалить страницы.

2) На новые страницы сделать 301 редирект со старых, если конечно урлы поменяются.

Имхо, лучше вариант номер один. Испытан на паре доменов с 50к страниц(20-30% в соплях).

Куплю PR5-PR9 ссылки, статьи и сайты. Обращаться в личку.
Unlock
На сайте с 01.08.2004
Offline
782
#6

Escrow, у меня перелинкова далека от идеальной, а поставить даже на 10K страниц ссылки, сами же понимаете, не реально :(

mcphantom, урлы не поменяются, а вот про первый вариант я как раз и говорил. Недавно косяк вскрылся, что 1.5 К страниц это почти полные дубли. Как быстро страницы ушли из индекса, после запрета через robots.txt?

E
На сайте с 01.06.2007
Offline
4
#7
Unlock:
Escrow, у меня перелинкова далека от идеальной, а поставить даже на 10K страниц ссылки, сами же понимаете, не реально :(...

Они что в одной папке? И никак не связаны? Я обычно выбираю точки доступа, или заранее разбиваю такие массивы на разделы - потом лечге. 10 новых ссылок на каждый раздел и бот прописывается на сайте :).

Unlock
На сайте с 01.08.2004
Offline
782
#8

Escrow, как можно сделать ссылки на все 10K страниц? Т.е. бот конечно в 3-4 "клика" может дойти до каждой страницы, но ссылок на эти страницы внешние не поставишь. На разделы, откуда идут ссылки на эти страницы, внешние ссылки стоят, этого все равно мало.

Sm@RT
На сайте с 03.11.2006
Offline
135
#9
Unlock:
Как быстро страницы ушли из индекса, после запрета через robots.txt?

Выходят долго и с кровью. 3 месяца потихоньку выпадали (это если сопли)

Написанно что если хочеш быстро - ставь метутаг ноиндекс на страницу, он ее оперативно выкинет.

В тулзах не удалать - это на пол года.

Ну а по нормальному - переписать контент и проставить ссылкы с Пр 6-7 , сильную.

Для переиндексации хватит. а там и с соплей вылезет, если нормально все переписал.

Куплю домены различных тематик в CO.UK, бюджет достаточный. Рассмотрю размещение статей на UK сайтах. Писать в личку
Unlock
На сайте с 01.08.2004
Offline
782
#10

Sm@RT, всегда когда мне советуют поставить ссылок с ПР 6-7 на сопливые страницы, у меня вопрос, как можно на 10K страниц понаставить ссылок? Я признателен за совет, но поймите, в моем случае это практически не реально. Мне надо тогда как минимум 100 ссылок (поставить их на "разделы"), вы же понимаете какие это деньги.

12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий