Нет, тоолько к соотв.сайтмапам (если это сайтмапы, но найти все страницы сайта можно и по ссылкам). Типа боту к перечисленным урлам обращаться запрещено (какими-то правилами в роботсе).
ps можно писать Disallow: /robots.txt # можно выкинуть из индекса robots.txt
но типа нельзя Disallow: /префикс-вашего-сайтмапа # не получается выкинуть из индекса Гугля сайтмап
Ну вот, как-то раз, великий Яндекс обнаружил в своих закромах 100500 дублей. Кого карать?
Тема о первоисточниках, а не о дублях (хотя первоисточники могут хериться Яндексом и при фильтрации дублей).
Если кому интересно, то СКР что-то там пытается делать в массе, оптом, ±валенок /ru/forum/792124
а конкретные случаи Воложу не интересны. Наёмные и добровольные, как XTR, пиарщики... как-нибудь справятся.
Если и есть какой-то там фактор про первоисточник, то вес его может быть 0.0000* или даже слегка отрицательный. Главное — релевантность, pFound, и капитализация.
А /ru/forum/376487 в масштабах сцайта?
Товарищи теоретики, вы непрошибаемы /ru/forum/comment/2836186 больше повторять не буду.
Ориентироваться (во времена аддитивности т.н. факторов ранжирования) следовало не на чатотность, а на конкурентность.
Представьте себе, что вся толпа спамерюгов делает осмысленно одно и то же. Как легко их старания отфильтрить.
И счётчик можно накрутить /ru/forum/837645
И ваши цены можно снизить, заказов будет больше, но они вам такие не интересны. И не важно, контекст или сео...
/ru/forum/376487
1) Запихивать иногда и не надо... но заходы на одну страницу могли быть и по сотням запросов.
2) Что в тайтле каждой страницы?
Ну и ещё есть штампованные каноны типа одна страница == один запрос.
Т.е. вариантов не мало.
Да и сама картина мира / устройства толпы хвостов может что-то значить.
И действительность обязательно разойдётся с тем, чего планировалось... хотя бы потому, что извесное — про вчера.
А как (безопасно) оптимизироваться под 100 / 1000 / 5000 запросов?
Детали: сколько каких статей...
А если толстенькие (их стандартно хочется многим) == лишь 10% трафа?.. мало ли, тема такая, бывает... основной траф по запросам с частотой 1-2 / мес (при таких значениях о частоте говорить глупо, это нечто почти неповторимое, изменчивое).
Вот тут толстенькие или всякие http://www.liveinternet.ru/stat/forum.searchengines.ru/queries.html?period=week;page=2045 ?
И вот способ появления пустышек в любой стате:
Ну и это, как (безопасно) оптимизироваться под 100 / 1000 запросов?
Опробированных предложений уже несколько лет нет.
Ну а во что/как вписать 100 хвостов?
В разных темах может быть различная частотность... того, что имеет смысл собирать.
При оптимизации под 2000 запросов может быть 200 уников/сутки.
Только не в самом начале... и некоторые символы подлый гугл показывает в менее контрастном варианте http://www.google.com/search?q=site:meta-description.narod.ru/Google.xml+%D0%BC%D0%B0%D1%81%D1%82%D0%B8 типа скоро совсем прикроет. В тайтле не проходят почти никакие.
И проверяйте в самых отсталых/новых ОС. Там может не отображаться...
А какой по-вашему может быть траф с одного из нескольких тыщ хвостов? И сколько будет с сотни? И как под эту сотню писать статью? Хотя бывают заходы и по бОльшему количеству, хвост НЧ · необходимость адекватных терминов.
А что вы будете делать с этими всеми хвостами?.. чтобы вас за списки запросов не зобанело.
fastkeywords.biz
водо* лод*
скачиваете txt
выбираете
удлиняете то* что* ищете* и т.д.