Когда же удалиться из кеша мусор?

12
S2
На сайте с 03.11.2010
Offline
105
1357

Обнаружил что из-за глюка движка сайта на каждную страницу сайта, в кеше яши и гоши лежит от 3-х ее копий. Я вычислили формулу имен этих злополучных страниц и запретил их в роботс.тхт, прверил инструментом для веб мастеров-доступ к ним закрыт, это железно.

в яше из индекса пропали дубли через неделю-две, а в гугле до сих пор они висят, несмотря на то что прошло уже 2 месяца с того момента, как я запретил их в роботс. самое интересное в панели для веб мстеров гоши написано: заблокировно роотсом 20страниц, но они да и десятка 4 и дальше висят в кеше.

Воспрос: оно уйдет когда-нибудь из кеша, или то что гугл отхватил-то его, и ничем его из кеша не выбьешь?

A
На сайте с 14.10.2010
Offline
24
#1

Конечно уйдет))) гугл скоро проиндексирует и "кривые сайты" уберет. Только когда решать ему)

О_Осоздание сайтов/ (http://maxmedvedev.com/)
S2
На сайте с 07.01.2008
Offline
611
#2

По аналогичным ситуациям, сохранёнки в итоге пропадают, только урл с титлом остаётся. И это надолго, полгода минимум. Если надо быстро и полностью, то надо полностью запретить домен к индексации и удалить его через аккаунт. А потом добавить на индексацию заново.

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
S2
На сайте с 03.11.2010
Offline
105
#3
Str256:
По аналогичным ситуациям, сохранёнки в итоге пропадают, только урл с титлом остаётся. И это надолго, полгода минимум. Если надо быстро и полностью, то надо полностью запретить домен к индексации и удалить его через аккаунт. А потом добавить на индексацию заново.

Ну такой необходимости нету, просто неестетично да и для позиций сайта думаю, не совсем хорошо иметь дубли страниц.

Спасибо за ответы))))

M
На сайте с 21.11.2010
Offline
1
#4
Str256:
Если надо быстро и полностью, то надо полностью запретить домен к индексации и удалить его через аккаунт. А потом добавить на индексацию заново.

Str256, подскажи плиз: а ты так уже делал? Я читал на форуме Гоши: кто-то говорит, что при этом сайт будет недоступен для индексации 90 дней, а кто-то говорит, что после удаления сайта через Инструменты для веб-мастеров - удаление url после того как заново заводишь сайт, там все страницы появляются снова как будто не удалялись.

У меня та же проблема - случайно в индекс попала куча дублей и изза этого все страницы кроме главной вылетели из выдачи. Хочу удалить весь индекс из Гоши, а потом заново проиндексить, поскольку терять то уже нечего, раз страниц нет в выдаче.

FX
На сайте с 15.01.2010
Offline
114
#5

так в ручном режиме их удали из кэша гугла

dumedrolis
На сайте с 11.02.2009
Offline
77
#6

Так про гуглировали бы эту тему или http://robotstxt.org.ru/rurobots/google

S2
На сайте с 07.01.2008
Offline
611
#7
dumedrolis:
Так про гуглировали бы эту тему или http://robotstxt.org.ru/rurobots/google

Когда было надо пробовал это, толку не дало.

mrhuge:
Str256, подскажи плиз: а ты так уже делал?

Удалял, сайт вылетел полностью через несколько часов. Обратно не добавлял, так как не надо было. Если других вариантов нет, надо так пробовать.

mrhuge:
Хочу удалить весь индекс из Гоши, а потом заново проиндексить, поскольку терять то уже нечего, раз страниц нет в выдаче.

Попробуйте и отпишите здесь по результатам.

M
На сайте с 21.11.2010
Offline
1
#8
fireXXX:
так в ручном режиме их удали из кэша гугла

удалил кучу страниц через url removal tools, но google почему то все равно показывает что у меня в индексе столькоже страниц сколько и было - 1300. Хотя из них полезных только 160. Толи теперь нужно ждать когда сайт выйдет из под фильтра. Но читал, что человек также удалил, потом ждал целый год так и не дождался ))

Так про гуглировали бы эту тему или http://robotstxt.org.ru/rurobots/google

это всё бесполезно - пробовал кучу экспериментов с robots.txt - google его сначала вообще проигнорировал и добавил еще дублей в индекс, а потом начал потихоньку по 2-3 странички в день добавлять в заблокированные, но это уже не спасает - сайт походу попал под фильтр

Удалял, сайт вылетел полностью через несколько часов. Обратно не добавлял, так как не надо было. Если других вариантов нет, надо так пробовать.

Не знаю что еще пробовать. С robots всё перепробовал, url удалял - ничего не помогает. Ждать не вижу смысла - так можно и год прождать. В Яндексе же всё прекрасно - ненужные страницы сами удалились из индекса и мой сайт там в топе по многим запросам. С google какойто неразрешимый геморрой.

Попробуйте и отпишите здесь по результатам.

Есть конечно риск, что гугл после этого не даст индексироваться сайту на 90 дней. Может заранее гуглу написать запрос на пересмотр сайта? Или уже после процедуры удаления?

Sower
На сайте с 30.12.2009
Offline
651
#9

А можно ли как-то удалить из кеша все страницы, в урле которых находится определённый кейворд? Нельзя сказать, что это мне сильно мешает, но один из кейвордов у страниц, пребывание в выдаче которых не обязательно, очень привлекает парсеры спамилок, что делает лишнюю нагрузку на систему. Ссылки на эти страницы уже 2 месяца как удалены, а в выдаче до сих пор около тысячи таких страниц.

__________________Бесплатная накрутка ПФ: посещаемость, просмотры, переходы с поисковиков по ключевикам, итд.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
M
На сайте с 21.11.2010
Offline
1
#10

Sower, в Google url removal tools можно удалить каталог - например /abra/kadabra/ и тогда удалится всё, что после этого адреса, а вот по кейворду я тоже искал у них на форуме, но там пишут что мол массовое удаление страниц вида /sddsd/*blablalba* у них не предусмотрено - типо риск, что удалятся нужные страницы. В общем фигня какая-то ) С гуглом один геморрой ))

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий