Чуть не удалил свой сайт из индекса :) Будьте осторожны!

12 3
Z-Style
На сайте с 18.03.2010
Offline
185
3125

В очередной раз решил поудалять из индекса страницы, отдающие 404,

зашел в WMT поделал заявки на удаление страниц, и не знаю даже почему, наверное силы свыше приказали

мне пересмотреть на что я подал заявку. Одна из страниц была вот такая:

имя.com/?cat=60 и я на автомате удаляя страницы не обратил внимание, что

WMT определил эту страницу как сайт, то есть, получается что я дал заявку на удаление всего сайта :D

Так что будьте бдительны, удаляя страницы через WMT.

Кстати, недавно понадобилось удалить сайт из поиска, подал заявку через WMT - на следующий день сайта в поиске уже небыло.

Да сих пор не могу понять от куда бот находит ссылки на такие страницы как /?cat=60 и /?cat=-1 в моем любимом WP, по всей видимости виноваты плагины.

В общем, закрываю в robots.txt эти несуразные проявления.

seo_optimist
На сайте с 09.09.2009
Offline
108
#1

спасибо за совет, но мне кажется, при подобном использовании robots.txt вы не совсем рационально используете ваши внутренние seo ресурсы, то что закрыто роботом все потеряно, лучше использовать другой метод

M
На сайте с 27.10.2006
Offline
111
#2

В голове не укладывается. Если сервер отдает 404 Not Found, то такой страницы просто нет.

Бесплатное хранилище данных (http://bit.ly/gJYy9Z) (5GB) с синхронизацией. По ссылке — бонус 500MB.
Z-Style
На сайте с 18.03.2010
Offline
185
#3
seo_optimist:
спасибо за совет, но мне кажется, при подобном использовании robots.txt вы не совсем рационально используете ваши внутренние seo ресурсы, то что закрыто роботом все потеряно, лучше использовать другой метод

спасибо за намек, лишнего не закроем))

Z-Style добавил 05.12.2010 в 17:30

Maxoud:
В голове не укладывается. Если сервер отдает 404 Not Found, то такой страницы просто нет.

для WMT достаточно ссылки на несуществующую страницу чтобы отобразить ее в ошибках сканирования

mr_baraban
На сайте с 25.10.2010
Offline
181
#4

А в чем смысл удаления несуществующих страниц?

Ведь если страница отдает 404-ю ошибку, гугл сам через некоторое время должен ее выкинуть из базы. Разве не так?

S
На сайте с 28.10.2005
Offline
312
#5

Страницу как сайт - это как?

[Удален]
#6
seo_optimist:
но мне кажется, при подобном использовании robots.txt вы не совсем рационально используете ваши внутренние seo ресурсы, то что закрыто роботом все потеряно, лучше использовать другой метод

ТС, всё правильно задумал. Нужно закрыть всё лишнее, во избежание дублей.

ссылка вида /?cat=60 - это ссылка на категорию с ИД=60. Если включён ЧПУ то правильная ссылка будет ЧПУ-шная, а это лишь её дубль.

seo_optimist
На сайте с 09.09.2009
Offline
108
#7
SeoNizator:
ТС, всё правильно задумал. Нужно закрыть всё лишнее, во избежание дублей.

ссылка вида /?cat=60 - это ссылка на категорию с ИД=60. Если включён ЧПУ то правильная ссылка будет ЧПУ-шная, а это лишь её дубль.

откуда у вас вылезло это "нужно"? ))

никто ж не спорит с задумкой, мною было предложено сменить реализацию ) судя по всему он правильно понял

[Удален]
#8
seo_optimist:
откуда у вас вылезло это "нужно"? ))

Я выше по русски вроде написал.. (ключевое слово - дубли)

Бабайка
На сайте с 05.08.2010
Offline
135
#9
SeoNizator:
Я выше по русски вроде написал.. (ключевое слово - дубли)

Дубли чего? я чето нифига не пойму.. вы это определяете через вебмастера гуглтул? Кэшированая страница определяется как 404 нот фаунд? а если перейти по адресу страницы? Так это глюки вордпреса или гугла.. или афтара сайта? И кто такой WMT ???!11🤪

[Удален]
#10
Бабайка:
Дубли чего? я чето нифига не пойму.

Дубли страниц, контента.

Бабайка:
И кто такой WMT

ВебМастерТоол наверное ;)

12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий