Если я правильно понял проблему, напрашивается rel="canonical". Или редирект. Правда, в выдаче гораздо проще оставить морду, чем /shop/.
Да, это один из лучших простых тестов (сам иногда им пользуюсь для экспресс-анализа), но вот беда: эмуляция браузера не может ограничиваться только количеством поддерживаемых потоков загрузки; разные браузеры выбирают разный порядок загрузки контента, в них работают разные правила взаимной блокировки подгрузки стилей, скриптов, картинок и фавиконок; опять же, нужно уметь исполнять скрипты, в том числе асинхронно (кстати, рекомендую новый асинхронный код Google Analytics – можно срезать сотню-другую-третью миллисекунд, в зависимости от браузера и наличия других скриптов на странице). Увы, всего этого Site-Perf не умеет.
Неправду он говорит – скрипты не выполняет, keepalive не поддерживает, тип браузера, расположение клиента и скорость канала задать не позволяет. Результат получается неправдоподобно быстрым.
Самым адекватным (хоть и не самым удобным) мне показался вот этот сервис. Загрузка, как я понял, производится реальными браузерами, результаты хорошо коррелируют с замерами из пользовательских гугл-тулбаров (т.е. теми, что показываются в Webmaster Tools).
Да, так и есть, возможно даже, что Каттс это и имел в виду, но употребил он всё-таки термины "long tail searches" и "head searches", обозначающие статистическую, а не лингвистическую характеристику запросов. В очередной раз оставив нам возможность поинтерпретировать :)
Disallow в robots.txt – это запрет доступа индексирующего робота к странице. Если робот подчиняется и не читает страницу – как он, по-вашему, может узнать о ссылках, расположенных на ней?
У вас наблюдается некоторый сбой в терминологии. Во всех вменяемых источниках "long tail" пишется без дефисов, и у него есть антоним - "head". То есть речь идёт не о "длиннохвостых запросах", а о "запросах из длинного хвоста", при этом подразумевается место запроса в статистическом распределении популярности, а не структура самого запроса.
См. текст принимаемого в дикой спешке нового налогового кодекса.
Не подтверждаю. У меня страницы с признаком №2 (повторы словосочетаний) полезли вверх, собирая сотни НЧ запросов каждая.
Ну, не знаю, у меня от мейдея примерно вдвое выиграл сайт, который почти не точился под конкретные запросы, а пытался покрыть некую техническую спецтематику. Да, там специально использовались различные ключевые слова в разных формах и сочетаниях, но в источниках трафика большинство запросов сейчас - длиной 3-5 слов и не соответствует точным фразам из текста.
Да, есть бэки с сайтов соотв. тематики, их немало и они естественные.
Вообще-то естественные бэки часто получаются с анкором, повторяющим урл или имя домена, и тут ключевые слова в урле/домене могут оказаться весьма кстати.