Нет, Гугл просто не так быстро, как хочется, принимает изменения title. Сегодня ещё 2 изменённые страницы принял в индекс. Жду остальные 3 - вроде пока движется путём... но медленно. Я переживать поначалу начал потому, что сначала абсолютно все изменения принялись (на следующий день уже в выдаче всё было гуд), а потом откат пошёл по 5 страницам из 7 изменённых.
Изменял title и description у 7 или 8 страниц. Контент практически не менял, может где-то подправил что-то - не принципиально, одним словом. Изменения принялись только на 2-х страницах, на остальных - откат по title, но description принят. Подожду, конечно, несколько дней, понаблюдаю. Но интересно, почему такая разная реакция у разных страниц с одинаковыми изменениями? Раньше таких глюков не было (другие были..) и медленные изменения тоже не наблюдались.
Именно утром и была эта свистопляска. Сейчас всё снова устаканилось и осталось по вчерашним показателям, +/-
Для начала неплохо бы дождаться апдейта, а потом уже требовать свою 10-ку. Последний АП от Яндекса был 48 дней назад. Как говорил Карлсон: "Спокойствие, только спокойствие...".
Ясное дело, что верну, это я в качестве эксперимента убрал на день-два, пока Гугл карту не схавает (проверю, сколько это действительно времени занимает, а за пару дней новых дублей наплодиться не успеет).---------- Добавлено 13.05.2013 в 22:27 ----------
Читал на других форумах, что на такой url карты сайта какой-то из поисковиков очень ругается, если его в роботсе прописать (вроде Яндекс, но не уверен).
Эта строка закрыла сотни дублей (их действительно раньше были сотни). Как в таком случае решить вопрос? И почему только в Гугле? (Яндекс ошибку не выдаёт). И почему именно вчера появилась ошибка, а строку я прописал пару месяцев назад?---------- Добавлено 13.05.2013 в 07:05 ----------Попробовал следующее: убрал в robots строку Disallow: /index.php?*, повторно попробовал скормить карту сайта - выдаёт туже ошибку о запрете в robots.
http://euroeducation.com.ua/robots.txt
Роботс большой, знаю, но пока не критичный и это временные меры - дубли удалятся из поиска - почищу. Но sitemap почему запрещён?
По времени процесс удаления может затянуться на месяцы. Причём в вэбмастере нужно снова и снова отправлять запрос на удаление тех страниц, которые запрещены в роботсе - одного раза бывает просто недостаточно, если гугл очень редко заходит на сайт.
Ещё один вопрос похожей тематики: убирал дубли главной на Joomla 1.5, дубль вида /index.php не хочет убираться стандартным (вроде бы?) способом RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.php\ HTTP/
RewriteRule ^index\.php$ http://site.ru/$1 [R=301,L]. Хотя на Joomla 2.5 пишут, что работает этот метод. Кто знаком с Джумлой, может знаете, как победить эту хрень на 1.5?
Всё вопрос снят - сам туплю, заработался...
а на ускорение процесса выкидывания не повлияет никак? Я так понял, что 301 редирект проблему дубля решит, но нужно время. Вот и интересуюсь, как ускорить это дело... Говорят, Яндекс может несколько месяцев мурыжить :(