Ссылки в панели вылезли большинство в двух одинаковых экземплярах, а некоторые и в трех.
Осталось и несколько "одиночек".
Нехилый глюк.
А я уже второй литр кофе начал - большинство страниц пропали уже третий раз за час.
Три раза появлялись, теперь опять нет. И новые ссылки все пропали, но вернулись старые.
Что вообще творится?
То же
Прибавилось три ссылки, через полчаса пропали четыре, потом опять добавились, причем самое интересное с подписи отсюда из под noindex - ну просто цирк, теперь опять пропали.
Страниц добавилось пятьдесят, потом 150 пропали.
Дурь какя-то.
О! Теперь 150 вернулись, но со старого кеша.
Попробуйте на главной кликнуть на ссылку "купить оптический прицел".
Здесь вообще кто-нибудь знает еще хоть что-то, кроме как "Прикупите ссылок с нужным анкором"?
Лучше уж пусть пропадет ссылка, чем показывать пользователям кэш дизайна со старым несуществующим файлом styles.css и картинками, которых уже нет. Сами понимаете от чего хочется избавится. :(
marenda добавил 21.03.2010 в 22:12
"Движок" далеко не WP.
Все гораздо проще. Я загнал бот на каждую измененную страницу ссылками со своего старого блога в Твиттере. Правда пришлось "потерпеть и еще 14 других, но это уже "мелочи жизни", к тому лишние боты как говорится "карман не тянут", все в хозяйстве сгодится.
Да я вобщем не про это, а то что с Москвы и Подмосковья теперь не будет особой разницы на какой дата-центр попал, с какого броузера и с какой системы на каком языке зашел.
А то раньше было везде по разному, а сейчас все один в один.
Я, например, отношусь очень положительно - сильно бесила эта разность.
По крайней мере можно теперь быть уверенным, что заходя из разных мест, люди будут видеть хотя бы примерно одно и тоже.
Это я и так все знаю. Вопрос то был совсем не про такое, а вполне конкретный по действиям Googlebot в таких именно случаях.
Или в таком случае может помочь удаление кэша страницы с помощью панели вебмастера операцией "Удаление кэшированной страницы"?
Интересный, кстати вопрос.
А если в панели поставить эти страницы на удаление?
Робот в этом случае прибегает, и в панели пишется отказ от удаления, что в принципе и надо.
Вопрос в том, что робот прибегает просто сверить что страница отвечает 200 или 404, или он все-таки при этом полноценно отсканирует уже новый контент и передаст на индексацию?
По отметке видно что робот вроде один и тот же приходит. Или это не так?