YaanGle

YaanGle
Рейтинг
155
Регистрация
06.09.2011
Ну да, раньше можно было запузырить всю огромную семантику в анкоры покупных ссылок и не париться. А теперь надо что-то с контентом придумывать. Правильно я понимаю посыл?

wolf

Вы можете спрогнозировать изменение посещаемости сайта после снятия внешних ссылок?

sunseeker7:
Это ваши ошибочные догадки. Падение трафика со всех поисковиков, а не только с Яндекса.

Ваш пример хорошо продемонстрировал, как некоторые участники темы пытаются вывернуть факты на свой лад. :)

wolf:
Красивая картинка. Только что-то мне подсказывает, что в условиях отсутствия ссылочных апов в указанный период, причина падения трафика заключается отнюдь не в снятии ссылок ;)

Автор разве обмолвился, что на графике один лишь Яндекс?

Что касается Яндекса для проектов с богатой семантикой - сотни анкоров с уникальными терминами позволяют собирать НЧ, супер-НЧ запросы. Может ВЧ/СЧ запросы после снятия ссылок и останутся при прежних позициях, но общий трафик просядет.

Shlackbaum:
За счет исключения непродвигаемых в подкатегории запросов

Ну, исключая [запрос 1], мы не влияем на то, в какие группы попадут [запрос 2] и [запрос 3]. Оценка "продвигаемости" запроса для типа сайта уже другая задача. По мне, так лучше не изменять семантику на выходе, уменьшая количество запросов.

И повторюсь, для неконкурентных запросов определение подкатегории сайта не несёт смысла, тк сильная обратная связь от других факторов.

Shlackbaum:

Ни в коем случае не отбрасываю, конечно они играют свою роль, причем скорее всего гораздо бОльшую, чем подкатегоризация. Я говорю об увеличении точности.

Объясните, с чего вдруг точность должна возрасти?

Shlackbaum:

конкретные квоты и в эту квоту проекты с подкатегорией Любительские не входят вообще - то проект не сможет именно из-за алгоритма матрикснета выйти в топ, хоть ты тресни

Вы хотите кластеризовать семантику, или определить релевантность [запрос:категория сайтов]?

Shlackbaum:

Либо я с вами не согласен, либо я неправильно изложил свою мысль, т.к. такой подход проблему не решит.

Надуманную проблему ничто не решит :)

Shlackbaum:
Даже не знаю как ответить на такой вопрос:))
А как можно так не решить?

Вы почему-то решили, что в данной задаче тип сайтов значимый фактор, отбросив другие.

Допустим [запрос 1], [запрос 2] ... [запрос n] отлично собираются в группу. Тут большее значение играют запросные факторы - мы ищем связь между запросами (хорошо собрались в группу - сильная , нет - слабая), а Вы хотите добавить условие - но это уже другая задача.

Для кластеризации более важными могут быть другие факторы (семантическая близость запросов), чем группы сайтов.

При этом, добавление группировки сайтов непосредственно в кластеризатор может ухудшить конечный результат.

На мой взгляд, изначально семантику можно кластеризовать, а затем дополнительно присвоить запросам коэффициенты релевантности, на основе групп.

Shlackbaum

Почему Вы вообще решили, что для кластеризации запросов имеет значение определение типа сайтов?


Смотря как собирать запросы. Если через WS - то нет.

Видимо, мы разные WS используем :o

Shlackbaum:

Таким образом - у каждой подкатегории свой тематико-семантический слепок. Для агрегатора и для любительского проекта он разный.
Предположим я решил создать новый любительский проект - тогда мне нужны данные слепка по любительским проектам. Мне не надо, чтобы туда подмешивались дилеры, агрегаторы, представительства или быстроробот/спектральная примесь.

Shlackbaum

  • Сначала ранжируем домены по их видимости для исходной семантики.
  • Затем, топ-N доменов (N-зависит от объема семантики) надо классифицировать вручную (оф. дилер, агрегатор, любительский сайт и т.д.).
  • Дальнейшую кластеризацию семантики проводить учитывая только домены из определенной группы, например оф. дилеров, либо назначив документам из этой группы повышающий коэффициент.

Дополнительно можно учитывать видимость группы по запросу (для Вашего примера с [форд фокус цена] группа "любительские сайты" получит низкий коэффициент) и отсеять неподходящие запросы.

Проблема, я думаю, будет в другом - бОльшая часть семантики - это НЧ запросы. Для них значение типа сайта практически не будет играть роли - будут рулить классические текстовые факторы. Следовательно, сужение выборки только до определенной группы сайтов даст кривые результаты. Ну или:

burunduk:
это работало на больших ся, к сожалению сейчас практически не работает
если раньше группировалось более 80% запросов, то сейчас меньше 30%
Dolph:
Ну значит у вас ссылки и не работали. Такое бывает, если сразу скопом купить кучу ссылок.

Гениально :)

alaev:
Я ж написал выше, что может быть откровенный переспам и прекрасно себя чувствовать в топе годами, но аналогичный текст вы уже не загоните в топ.
Хороший пример - интернет магазины.
На одних сайтах простыня на 3-5k знаков под товарами , а на других только товары и ни строчки текста.

Так я не утверждаю, что подобная оптимизация обеспечит топ. Тема об альтернативной постановке ТЗ на копирайт. А уж нужен текст или нет - решать вам :)

dlyanachalas:

Движения были не сильные! Но четко не в ту сторону, которую обещал Яндекс.

Я такого не заметил, где-то даже был рост после съема ссылок (позиции до отката):

Всего: 1049