allenatore

Рейтинг
14
Регистрация
24.10.2012
Ушат:
Правильно называете тему
Гугл считает не релевантным запросу мой "оптимизированный" title и выводит другой

Нет, Гугл просто не так быстро, как хочется, принимает изменения title. Сегодня ещё 2 изменённые страницы принял в индекс. Жду остальные 3 - вроде пока движется путём... но медленно. Я переживать поначалу начал потому, что сначала абсолютно все изменения принялись (на следующий день уже в выдаче всё было гуд), а потом откат пошёл по 5 страницам из 7 изменённых.

YuriDnepr:
Это признак возможного фильтра. Ручного или автоматического.

Ещё есть моменты "медленного" изменения в СЕРПе? Например: изменили контент на странице, а в топе старый снипет и старый кеш - более месяца не обновляется?

Это всё ИМХО. Просьба - не пугайтесь заранее, возможно просто "глюки" Гоши :)

Изменял title и description у 7 или 8 страниц. Контент практически не менял, может где-то подправил что-то - не принципиально, одним словом. Изменения принялись только на 2-х страницах, на остальных - откат по title, но description принят. Подожду, конечно, несколько дней, понаблюдаю. Но интересно, почему такая разная реакция у разных страниц с одинаковыми изменениями? Раньше таких глюков не было (другие были..) и медленные изменения тоже не наблюдались.

ВайтБи:
Дарят минуты радости тем кто в глубине уже давно )))
По теме сегодня часть позиций в -, часть в +...но в - > чем в +. Снимал утром

Именно утром и была эта свистопляска. Сейчас всё снова устаканилось и осталось по вчерашним показателям, +/-

Alisaslut:
Мне говорили, что после первого месяца поисковики вытаскивают сайт из "песочницы", а 10 ссылок дают тиц 10. Уже почти два месяца.

Для начала неплохо бы дождаться апдейта, а потом уже требовать свою 10-ку. Последний АП от Яндекса был 48 дней назад. Как говорил Карлсон: "Спокойствие, только спокойствие...".

orka13:
Зачем вы убрали "Disallow: /index.php?*"? Вам подсказали место проблемы, но не говорили что ее надо вырезать под корень. Верните его назад, если помогало для других бед.

Ясное дело, что верну, это я в качестве эксперимента убрал на день-два, пока Гугл карту не схавает (проверю, сколько это действительно времени занимает, а за пару дней новых дублей наплодиться не успеет).

---------- Добавлено 13.05.2013 в 22:27 ----------

дани мапов:
Убирать не надо это правило, а нужно чтобы Xmap выдавал адрес карты в виде http://site.ru/sitemap-xml.html . Давно как-то уже делал, сейчас не помню то ли этот адрес сразу можно получить или в настройках Xmap покопаться.

Читал на других форумах, что на такой url карты сайта какой-то из поисковиков очень ругается, если его в роботсе прописать (вроде Яндекс, но не уверен).

дани мапов:
Из-за этой строки Disallow: /index.php?* попадает под запрет sitemap.

Эта строка закрыла сотни дублей (их действительно раньше были сотни). Как в таком случае решить вопрос? И почему только в Гугле? (Яндекс ошибку не выдаёт). И почему именно вчера появилась ошибка, а строку я прописал пару месяцев назад?

---------- Добавлено 13.05.2013 в 07:05 ----------

Попробовал следующее: убрал в robots строку Disallow: /index.php?*, повторно попробовал скормить карту сайта - выдаёт туже ошибку о запрете в robots.

Roousk:
содержимое роботс.тхт в студию!

http://euroeducation.com.ua/robots.txt

Роботс большой, знаю, но пока не критичный и это временные меры - дубли удалятся из поиска - почищу. Но sitemap почему запрещён?

По времени процесс удаления может затянуться на месяцы. Причём в вэбмастере нужно снова и снова отправлять запрос на удаление тех страниц, которые запрещены в роботсе - одного раза бывает просто недостаточно, если гугл очень редко заходит на сайт.

Ещё один вопрос похожей тематики: убирал дубли главной на Joomla 1.5, дубль вида /index.php не хочет убираться стандартным (вроде бы?) способом RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.php\ HTTP/

RewriteRule ^index\.php$ http://site.ru/$1 [R=301,L]. Хотя на Joomla 2.5 пишут, что работает этот метод. Кто знаком с Джумлой, может знаете, как победить эту хрень на 1.5?

Всё вопрос снят - сам туплю, заработался...

sleepnow:
Думаю, что нет :) Ведь старый домен со временем "выкинется" из ПС.

а на ускорение процесса выкидывания не повлияет никак? Я так понял, что 301 редирект проблему дубля решит, но нужно время. Вот и интересуюсь, как ускорить это дело... Говорят, Яндекс может несколько месяцев мурыжить :(

123 4
Всего: 38