А причём тут ЧПУ, если речь идёт о дублировании title-а и description-а? ЧПУ определяет правило формирования URL-в, к заголовкам страницы и мета тегам он отношения не имеет.
Тут для начала надо смотреть на примеры дублирования и понять в каких разделах идёт шаблонная генерация title-ов и description-ов. Дальше уже думать, как вводить новые переменные в рабочие маски, чтобы не было сплошных дублей.
Правильно говорят. Эти операторы больше не отображают полных данных (в вопросе полноты индексации).
Очень может быть, возможно остальные 9 результатов, не проиндексированы, поэтому остальные в результаты и не попадают.
Смотря какую задачу вы решаете. Если вы хотите найти все страницы сайта, содержащее искомое слово, то попробуйте воспользоваться контекстным поиском на сайте. Если поиск на сайте работает правильно, то вы сможете более точно решить свою задачу, потому что задавая поиск через индекс вы должны понимать, то будете искать среди проиндексированных страниц, а здесь далеко не факт, что все страницы сайта проиндексированы.
когда прочитаете - перечитайте ещё раз с акцентом на прогноз числа показов в месяц. Внимание, не запросов, а показов!
Дело в том, что многие надеются на Вордстат как на точный инструмент анализа данных - сколько пользователей искали тот или иной запрос, а на самом деле этот инструмент является лишь вспомогательным для прогноза данных по запросам в рекламной кампании Директ.
Если Вордстат не уточняет этих данных, значит ему так нужно.
Где 2 ссылки? Разве ТС сказал, что купил 2 ссылки?
В этом случае вам уже нужен не clean-param, а запрет индексации всех подобных адресов на уровне /index
Если ЧПУ у вас работает и структура соблюдается, то все вышеуказанные адреса - дубли.
Если какая-то часть из них уже проиндексирована - склеивайте 301-ым редиректом.
Возможно даже сугубо по своей тематике :)
В данном случае надо не Clean-param настраиваться, а переводить сайт на ЧПУ адресацию с соблюдением структурной URL вложенности.
Зачем вам закупать ссылки на страницы блога? Вам так необходим информационный трафик?
Сосредоточьтесь на целевых приоритетных задачах по коммерческим запросам.
То, что вы будете выполнять в отношении коммерческих ключей - будет работать на ранжирование коммерческих ключей, то что будет выполнять в отношении информационных запросов - будет работать для информационных запросов. В вашем случае, когда вы коммерцию и инфо разделяете - это будет именно так.
Данная стратегия требует определения приоритетных задач. Если вы уверены, что инфо трафик у вас хорошо конвертируется и у вас сильный копирайтер, который через статьи и новостные обзоры сможет приводить посетителей к заказу, тогда это имеет смысл.
Если вы просто создали блог и используете его стандартно для информационных обновлений и контентного расширения - я бы не стал тратить на это значимые бюджеты по ссылочному.
Занимайтесь указанными проблемами сразу - уберите все те лишние данные, которые я вам указал в начале темы, они наверняка дублируются и на копиях с поддоменами. Проведите технический анализ, закройте для индексации все служебные страницы и куски ненужной информации.
Юзабилити и дизайн на индексацию не влияют, влияет доступ к рабочим страниц и их фактическое содержание.
Приведите в порядок структурность H заголовков, уберите из заголовков многократные повторы топонима, не создавайте доп. признаков переоптимизации.
Много.. много ошибок.
отказы Яндекс поиск - 26,1 %, глубина - 1,83, время - 2:57
отказы Гугл поиск - 34,3 %, глубина - 1,6, время - 0:34
отказы Директ - 36,9 %, глубина - 1,29, время - 0:38
Это очень много. С поиска отказы рекомендуется в пределах 16-18%, после 20% - это уже проблемная зона, надо разбираться и принимать меры. Директ по отказам зачастую выше, но 36% - это тоже очень много, проверьте назначение рекламной кампании и целевых страниц, проверьте фактические соответствия заходов по запросам и релевантность страниц.
Посмотрите в Вебвизоре по сессиям рабочий день (понедельник-четверг) - есть сессии в зелёной зоне?
Цели настроены? Автоматические цели срабатывают? Достижение целей есть?