Ippi

Рейтинг
29
Регистрация
14.09.2009

А я пробовал загонять вообще без ссылок, указанием в XML-сайтмапе на маленьком, но хорошо накачанном пейджранком (наверное, и чем то ещё) сайте (внутряки минимум PR4). Текст – по три предложения на двух тестовых страницах (самописный, и, надо полагать, уникальный). Обе ссылаются на основную часть сайта, но обратных ссылок нет.

Получилось – страницы в течение недели попали в индекс, и уже четыре месяца находятся там, и даже не в соплях (ну или кто как предпочитает это называть).

Лучше 410 возвращайте для ускорения процесса, а то после запрета в роботс они могут ещё надолго в кэше зависнуть.

Z-Style:
теперь он взывает не использовать nofollow на внутренних линках

Это только для тех, кто пропустил информацию годичной давности ;)

Перейти в режим "Показать отправленные моих" (так локализаторов разэдак за такие названия).

Ippi добавил 12.07.2010 в 19:44

А вообще, вот:

Susan Moskwa:
The best way to stop Googlebot from crawling URLs that it has discovered in the past is to make those URLs (such as your old Sitemaps) 404. After seeing that a URL repeatedly 404s, we stop crawling it. And after we stop crawling a Sitemap, it should drop out of your "All Sitemaps" tab.

Alternatively, if you don't want to deal with the fact that we still know about these URLs, just don't look at the "All" tab. No one is "forcing" you to maintain anything; we're just letting you know that this is a URL Googlebot discovered at some point.
djslonik:
Этого достаточно

Только не одновременно ;)

rel="canonical" же.

Отсюда:

Q: Will it take care of https issues as well, I hope it will? Just wanted to confirm it.

A: Yes, you can use rel="canonical" for https to http or vice versa.
Elven:
А суть от этого принципиально меняется?

Смотря что считать сутью.

Гм, впечатление такое, что мы смотрели разные ролики.

2) "Разные браузеры поддерживают разную функциональность. В настоящий момент поддержка AJAX в IE не столь хороша, как в FF, поэтому для FF результаты выдаются с помощью AJAX (что быстрее), а для IE – классическим способом. Обычно это не изменяет результат, но теоретически такое возможно."

3) "Гугл постоянно слегка варьирует выдачу, проводя A/B тесты на пользователях; участие пользователя в тесте фиксируется с помощью кукисов. Соответственно, попав одним из браузеров на определённый тест, вы можете получить несколько изменённый результат."

Как-то так.

Yurij185:
По статистике вижу бота, но и сам Гугл не скрывает, отображая подобные урл-ы в разделе "Эффективность сайта"

Это отдельный бот – не тот, который индексирует, а тот, который собирает информацию для советов по оптимизации. Ему просто необходимо исполнять скрипты.

BrokenBrake:
Ippi, слишком много параметров и не нужно, это же средняя оценка.

Без исполнения скриптов получается не средняя оценка, а оценка сферического сайта в ваккуме. Счётчики/баннеры на скриптах оно не понимает, аналитикс видит, но запрос-отметку не посылает, асинхронный аналитикс не видит вообще (а ведь на прогрузку счётчиков и т.п. часто уходит львиная доля времени загрузки страницы). Впрочем, для ряда задач годится и упрощённый тест – например, для беглой оценки конфигурации хоста (сжатие, keepalive), тормознутости CMS или перегруженности страницы неоптимизированной графикой. Как я уже сказал, сам им нередко пользуюсь.

Кстати, бот гугла, который собирает информацию для советов по оптимизации, честно исполняет скрипты (его легко опознать по разрешению "экрана" 1024x1024). Странно, что он не занимается замерами времени загрузки. А может, и занимается, только нам об этом не говорят.

Всего: 318