А я пробовал загонять вообще без ссылок, указанием в XML-сайтмапе на маленьком, но хорошо накачанном пейджранком (наверное, и чем то ещё) сайте (внутряки минимум PR4). Текст – по три предложения на двух тестовых страницах (самописный, и, надо полагать, уникальный). Обе ссылаются на основную часть сайта, но обратных ссылок нет.
Получилось – страницы в течение недели попали в индекс, и уже четыре месяца находятся там, и даже не в соплях (ну или кто как предпочитает это называть).
Лучше 410 возвращайте для ускорения процесса, а то после запрета в роботс они могут ещё надолго в кэше зависнуть.
Это только для тех, кто пропустил информацию годичной давности ;)
Перейти в режим "Показать отправленные моих" (так локализаторов разэдак за такие названия).
Ippi добавил 12.07.2010 в 19:44
А вообще, вот:
Только не одновременно ;)
rel="canonical" же.
Отсюда:
Смотря что считать сутью.
Гм, впечатление такое, что мы смотрели разные ролики.
2) "Разные браузеры поддерживают разную функциональность. В настоящий момент поддержка AJAX в IE не столь хороша, как в FF, поэтому для FF результаты выдаются с помощью AJAX (что быстрее), а для IE – классическим способом. Обычно это не изменяет результат, но теоретически такое возможно."
3) "Гугл постоянно слегка варьирует выдачу, проводя A/B тесты на пользователях; участие пользователя в тесте фиксируется с помощью кукисов. Соответственно, попав одним из браузеров на определённый тест, вы можете получить несколько изменённый результат."
Как-то так.
Это отдельный бот – не тот, который индексирует, а тот, который собирает информацию для советов по оптимизации. Ему просто необходимо исполнять скрипты.
Без исполнения скриптов получается не средняя оценка, а оценка сферического сайта в ваккуме. Счётчики/баннеры на скриптах оно не понимает, аналитикс видит, но запрос-отметку не посылает, асинхронный аналитикс не видит вообще (а ведь на прогрузку счётчиков и т.п. часто уходит львиная доля времени загрузки страницы). Впрочем, для ряда задач годится и упрощённый тест – например, для беглой оценки конфигурации хоста (сжатие, keepalive), тормознутости CMS или перегруженности страницы неоптимизированной графикой. Как я уже сказал, сам им нередко пользуюсь.
Кстати, бот гугла, который собирает информацию для советов по оптимизации, честно исполняет скрипты (его легко опознать по разрешению "экрана" 1024x1024). Странно, что он не занимается замерами времени загрузки. А может, и занимается, только нам об этом не говорят.