Тестовые сайты на поддоменах

12
S
На сайте с 25.01.2010
Offline
41
#11

не занимайтесь ерундой. Поставьтев роботс дисаллоу на корень / как сказали выше, хоть страницы и проиндексированы уже и в выдаче, через нек. время страницы будут удалены из базы. Процесс занимает до 3-х месяцев для самых убогих по скорости индексации и обновлении кеша сайтов.

Если говорить о поддеменных сайтах в Вашем случае, то не пойму зачем их удалять то? Если эти сайты информационные, если Вы не размещали ЭНное количество ссылок на основной домен, то проблем не должно быть исходя из логики и опыта, но "сегодня" я уже ничему не удивляюсь со стороны гугла... Если еще и контент у них уникальный, то вообще бессмысленно их удалять.

B
На сайте с 07.02.2005
Offline
161
#12
Aphex:
Цитата:
Сообщение от honeybee
Таких сайтов около 1000. Может ли это вредить основному сайту ?

Если с них не было линков на Ваш основной домен, почему оно должно повредить?

Если контент дублирует основной сайт - будет вредить еще как.

Удалять из индекса, когда туда уже попали - очень долгая песня, занимает месяцы. Правильный путь имхо предложил easywind.

S
На сайте с 25.01.2010
Offline
41
#13
bober:
Если контент дублирует основной сайт - будет вредить еще как.
Удалять из индекса, когда туда уже попали - очень долгая песня, занимает месяцы. Правильный путь имхо предложил easywind.

Я не говорил, что если не уникальный контент - надо оставлять, конечно, надо блокировать.

А если Вы уж хотите предложить самый быстрый способ, для того есть в панели вебмастера свойство ручного удаления страниц из выдачи)) Но даже для 1-го сайта, небольшого - это такой геморрой, что потом будут сниться кошмары)) Можно конечно и 404, согласен.

E
На сайте с 21.09.2009
Offline
283
#14

Вот нашел в хелпах

"Google больше не рекомендует блокировать доступ поисковых роботов к повторяющемуся контенту с помощью файла robots.txt или иных способов. Если поисковые системы не имеют возможности сканировать страницы с повторяющимся контентом, то они не смогут автоматически определять, что разные URL имеют одинаковый контент, и будут обращаться с ними как с уникальными страницами."

Теперь понятно почему рекомендуется ставить ноиндекс, а не писать в роботс. :)

Aphex
На сайте с 25.07.2006
Offline
127
#15
bober:
Если контент дублирует основной сайт - будет вредить еще как.

Ясное дело. Тут скорей всего не это имелось ввиду. ТС переживает за свой сайт, на поддоменах которого размещены тестовые клиентские версии.

Делай только то, что дается тебе легче всего, но делай это изо всех сил.
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий