URL - это еще одно место, куда можно нагадить ключевыми словами, которые будут учтены поисковиками, причем если ключ есть только в URL, то документ будет искаться (проверено), в отличии от keywords/description. А даст ли вам это прирост трафа, или нет - чтобы ответить, надо с бубном сначало потанцевать :)
А переходы в Google чем крутили, если не секрет?
Написать шаблон для зенки/хумана
http://www.fortress-design.com/sergej-lyudkevich-yazyk-zaprosov-yandeksa-dlya-issledovanij/
работает сейчас, или нет - надо проверять
amelta, интересную темы вы затронули.
По сути для прогноза трафика по конкретному запросу нужно знать его "популярность" и позицию (в идеале CTR). Если нужен прогноз по всему СЯ на длительный срок (допустим год), то соответственно нужно знать "популярность" каждого запроса хотя бы по месяцам, а также позицию (!), которую сайт будет занимать в тот, или иной месяц...
В качестве "популярности" проще все использовать данные из вордстата, колебания сезонности есть там же, т.е. нужны коэфициенты по месяцам (вероятно лучше для групп запросов, а не для каждого в отдельности).
Основная проблема - прогноз позиций по месяцам... Умеете это делать? :) По сути ошибившись всего на несколько позиций в топе, можно лихо проиграть в трафе. Вот кстати хорошее исследование на тему CTR, допустим вы прогнозировали, что в какой-то месяц сайт займет по [запросу] с "популярностью" 10 000 в топе 2-ю позицию, стало быть он должен принести из яши ~ 1192 посетителей, а он занял 7-е место и вы получили только 494 посетителя. Прогнозируемый и фактический траф по 1 запросу уже отличается в 2 раза. А если вспомнить, что вордстат - это показы рекламы, а не фактическое число запросов и что там не учитывается порядок слов, то вообще беда с прогнозом может быть.
Опять же, геозависимость в Яндекс. Как считать траф по таким запросам? Решение влоб - взять вордстат только по своему региону, но если вы посмотрите распределение трафика по городам через Метрику/ГА, то увидите, что часто траф по ГЗ запросам идет и из других регионов, т.е. очередная погрешность.
Из не названного выше - serp.advse.ru, а так пожалуй в стартпосте все паблик сервисы рунета перечислены.
Очень часто бывает так, что по первому куску выше оригинал, а по следующему куску уже копипастер.
Google Webmasters Tools -> Ваш сайт -> Сканирование -> Просмотреть как Googlebot
Вбиваете URL которого нет в индексе -> "сканировать и отобразить" -> "Добавить в индекс"
Если страниц много, пишите скрипт автоматизации (зенка, хуман)
Подкиньте плз пруф где они квакали, спс
На странице http://www.unmedia.ru/sokrytie-ssylok.html ссылки на комментарии вида:
http://www.unmedia.ru/sokrytie-ssylok_comm1.html
http://www.unmedia.ru/sokrytie-ssylok_comm2.html
Специально открыты? ;)