Если ориентироваться на классическую теорию PageRank, то ровно 15% ))
metaContent, продвигать можно не только конкретные ключевики. То что обычно по контракту продвигают оптимизаторы и делят на ВЧ, СЧ и НЧ, это только верхушка айсберга.
Огромную долю трафика составляет великое множество крайне низкочастотных запросов. За счет этого и живут дорвеи, они пусть не очень эффективно, зато дешево и сердито отлавливают часть такого трафика одним своим текстом.
Если продвигать не конкретные ключевики, а просто стремиться увеличить трафик например на свой интернет-магазин, можно это сделать написав продуманные тексты и нагнав на них вИЦ, чтобы они оказались в топ-10 по большему количеству этих самых крайне-низкочастотников.
С точки зрения увеличения трафика это зачастую эффективнее. Карта сайта здесь нужна лишь как входная точка для вИЦ, чтобы он распределился по всем страницам. Ведь на сайте обычно нет других страниц имеющих ссылки на все остальные страницы сайта.
Внутреннее и внешнее ссылочное это хорошо, но написать хотя бы по ссылке на каждый из тысяч этих супер-НЧ крайне трудоемко. Как и купить по ссылке на каждую из тысяч страниц интернет-магазина. Намного легче и естественнее просто написать текст по теме, держа в голове как обычно люди ищут в данной тематике, и стараясь не получить слишком большую текстовую тошноту.
Извиняюсь, если не понял вас, и вы все это и так отлично знаете.
В данном предложении карту сайта не надо прокачивать ссылочным, и то что оно похорониться не так важно.
НЧ в этом случае предлагается вывести за счет текста и вИЦ, который со сквозняков через карту и получается всеми вторичками.
Актуальнейшая полувековая компьютерная проблема требует для своего решения алгоритма который будет определять смысловые дубли с высокой точностью. Она так до сих пор и не решена.
Яндекс научился с некоторой погрешностью отсеивать самые наглые и простые дубликаты, и этим уже значительно улучшил свою выдачу. Речь шла именно о вопросе, как яндекс их отсеивает, эти простые дубликаты.
Это алгоритм определения четких дублей. А яндекс ищет также и нечеткие. Плюс нету у него возможности каждые два текста в рунете по буковке сравнить.
А можно меня будут звать не WSGU, а ИМХО ? :D
Со мной поделитесь!
Яндекс уже давно применяет какую-то методику поиска нечетких дубликатов, чтобы не показывать все версии одного документа в выдаче.
egoryich, (GoodWin), по-моему ТС спрашивал как яндекс производит автоматический поиск дублей а не решает вопрос об авторстве. Его интересует как предотвратить нахождение дублей, а не как доказать свое авторство после этого нахождения.
Причина нашлась. Контент Донора на сайт egoryich был целиком украден какими-то лентяями. И после вылета донора ссылочное осталось с украденной копии.
Не учитывается даже "ключевитость" текста донора, что уж говорить об анкор-листе.
Странно, помню как-то читал там статью. Яндекс кстати определяет факт плагиата как раз по нечетким дублям...
Вот тогда для самых въедливых и подкованных, то что я видел на сайте HKey, только не переведенное на понятный неспециалистам язык.
Относительно недавнее исследование Сегаловича и Зеленкова
Площадки, где покупаем спам тоже играют значительную роль.