Хотя увидеть полноту в классификации запросов уже само по себе довольно любопытно,
namespace NClassificationRule {
enum ClassMask {
DEF_SHIFT_AND_MASK(DOWNLOAD, 0)
DEF_SHIFT_AND_MASK(BRANDNAMES, 1)
DEF_SHIFT_AND_MASK(DISEASE, 2)
DEF_SHIFT_AND_MASK(KAK, 3)
DEF_SHIFT_AND_MASK(MOSCOW, 4)
DEF_SHIFT_AND_MASK(OAO, 5)
DEF_SHIFT_AND_MASK(PORNO, 6)
DEF_SHIFT_AND_MASK(TRAVEL, 7)
DEF_SHIFT_AND_MASK(INFO, 8)
DEF_SHIFT_AND_MASK(GAMES, 9)
DEF_SHIFT_AND_MASK(EDUCATION, 10)
DEF_SHIFT_AND_MASK(MUSIC, 11)
DEF_SHIFT_AND_MASK(NEWS, 12)
DEF_SHIFT_AND_MASK(WATCH, 13)
DEF_SHIFT_AND_MASK(JOB, 14)
};
}
Комплиментарно округлил тему до вывода - "Ничего там особо интересного нет, кроме конкретный названий. И понять для себя без рассчитанной матмодели ничего не получится".
Вы видели, куда ведут те ссылки или нет?
Да, конечно, на коммерческие материалы сайта, что не отменяет вышесказанного мною.
Чем больше кликов, тем больше показов. Полагаю не вызывает сомнение, что интересы рекламодателей для администрации форума важнее, чем ранжирование каких-то старых материалов.
Анкорные ссылки для перелинковки на своём проекте и ссылки на данном форуме - вещи принципиально разные.
Ссылки на форуме в первую очередь ориентируют пользователей на востребованность уже имеющихся тем, тогда как перелинковка на своём проекте в подавляющей доле делается для ссылочного эффекта.
Я знаю, потому что делал много раз - это не аргумент.
Читайте внимательно, что я пишу - заранее вы не знаете результат по каждому конкретному случаю - расчётная формула весов недоступна. Все это лишь интуитивные выводы.
Идея в том, что сайт - это не закупоренная консервная банка. Сайт обновляется. Хороший и динамично растущий сайт обновляется постоянно. В естественных условиях от апа к апу у него появляются новые источники - авторские страницы, пользовательские комментарии, обновление старых страниц и среди них появляются новые ссылки и т.д.
Когда ссылки появляются постепенно в более - менее плавном распределении запросов - это естественно.
Когда появляется сразу сотни ссылок с одним и тем же анкором - это явная манипуляция. Признаки подобных манипуляций ПС фиксирует.
Не улавливаете. При первичной индексации страницы индексируются в исходном "каркасе сайта", а дальше поисковая система видит фактические изменения страниц. Вот когда эти изменения указывают на массовое использование анкорных ссылок для манипуляции запросами - это есть SEO признаки.
Эту идею несете вы одобрением идеи разместить сквозной блок, который будет ссылаться сразу с двух сотен донорских страниц.
Вы цепляетесь к словам. Это не конструктивно. Далее я говорю - распределите или работайте эпизодами (для оценки ранжирования). Суть не в словах, суть в том, что не надо единоразово наваливать сотни ссылок для прокачки одного анкора.
Сайт должен развиваться постоянно и по сути нет и не должно быть никаких ограничений по времени, чтобы улучшать ранжирование. Покуда сайт обновляется под эти обновления и нужно планировать реализацию задач по перелинковке.
Не надо переходить на личности. Если вам не нравится моя методика - это не повод для упрёков и ехидных вольнодумств.
Я этим занимаюсь уже более 15-ти лет и небезрезультатно, поэтому готов обосновать и объясняю, почему так поступаю.
Расхождения в подходах не повод для распрей.
Пожалуйста.
Линковать десятки и сотни страниц по одним и тем же анкорам нет особой нужды. Многократные повторы анкора не дадут резкого прироста и не будут увеличивать постоянно. Работайте эпизодами - сделали часть, после индексации оцените изменения, потом добавляйте ещё и снова оценивайте эффект.
Уверяю, в поступательной работе у вас будут возникать новые идеи в анкорных вариациях.
На определённом этапе вы поймете, что дополнительные перелинковки для одного и того же анкора перестанут давать эффект - нет смысла дальше тратить время и силы на эту работу, переключайтесь на другие страницы и другие группы запросов.
Контекстные ссылки из тела страницы дают лучший эффект, чем группа сквозных ссылок. Сквозные ссылки лучше покупать с внешних сайтов, а раскачивать внутренним ссылочным лучше поступательно из текста готовых статей/материалов.
Если вы потом прокачаете (хотя бы частично) эти контекстные ссылки через ПФ, то это будет нелишним и очень хорошо работает по части организации навигационных цепочек в сниппетах (я на одном из рабочих проектов зафиксировал очень интересные результаты).
p.s. Окунитесь также в актуальный и обнародованный перечень факторов Яндекса, вы увидите, что ПС рассчитывает веса слов по анкор листу и учитывает повторы отдельных слов. Это должно наводить на мысли.
Там нет никаких новых терминов.
Какие слова для вас новые? Локализация? Зона? Ссылочная?
Что будет в данном конкретном случае заранее не знают ни я, ни вы, ни даже разработчики поисковых алгоритмов.
Есть нежелательные способы (переспам анкоров и резкий прирост внутренних ссылок) и более естественный, когда размещение ссылок не группируется в одном блоке и появляются более естественно с дополнительным появлением новых страниц.
Похоже вы устраиваете препирательство на пустом месте.
Между растягивать и распределять плановую работу есть существенная разница. Когда плотная работа идёт несколько месяцев 3 недели это не какой особый растянутый срок.
Если лично вы сильно спешите, можете сильно не ждать и всегда и везде линковать сотни страниц одновременно - дело ваше.
Вы дали свой совет. Я дал свой. TC поступит так, как посчитает для себя более правильно.
Что вам в написанном непонятно?
Я не предлагал делать сквозняк в меню.
Затем, чтобы в анкор листе одномоментно не появлялось две сотни схожих анкоров.
После двух-трех недель рабочие процессы останавливаются?
На что вы теряете время? Или вам кроме перелинковки больше нечем заняться?
Я не делаю это одномоментно. Я разбиваю этот процесс на этапы и конечно кроме перелинковки есть ещё масса других задач. Рабочий процесс естественно не ограничивается 2-3х недельных интервалом.
Не надо создавать сквозные локализации ссылочных зон для анкорной перелинковки, тем более с анкором по главному ключевому слову, тем более со всех страниц.
Если вам нужно использовать перелинковку - сделайте более естественную перелинковку из контекста уже готовых статей и конечно же не из из всего кол-ва страниц. Выберите максимум десятка два-три, растяните процесс на 2-3 недели и линкуйте без анкорных повторов, и желательно, чтобы доля использования ключевого слова не была 100%.
По перечню заметно, что хронологически идёт нахлест последующего фактора на предыдущий фактор (грубо говоря - костыль на костыле). Какие факторы будут ослаблены, какие отключены - неизвестно.
Я не уверен, что по представленным огрызкам данных вообще кто-либо восстановит полную картину.
Даже если расчёт формулы разбросан кусками по разным частям кода - это не даст никакого озаряющего знания.