Сомневаюсь, что уровень доверия Яндекса к площадке (палю тему - запросите у Яндекса список площадок без привязки к поиску по тексту) в каких либо результатах поиска (а на Яндексе только поиск, в той или иной форме) соответствует эффекту от размещения ссылок на этой площадке.
И продавайте лучше, нессылочные факторы ранжирования. От них толку будет больше :)
Видимо, Вы не бизнесмен, а ученый :)
Андрей Привалов, kikimor, ну, на текущей работе вряд ли будут экономить, речь про разработки.
Количество и качество ссылок зависит не от частотности запроса, а от конкуренции по запросу.
Чем выше конкуренция по запросу, тем ссылок нужно больше и ссылки должны быть лучше (если отбросить все остальные факторы кроме кочества и количества ссылок).
Это очевидно :)
Я не утверждал, что они в борьбу вкладывают :)
1) ИМХО, с каждым годом продвигать становится все труднее.
2) Только подстроишься, так они опять что-то поменяли.
На сколько я понимаю - непот это был фильтр (или сильно понижающий или отключающий исходящее ссылочное) на площадки, в том числе по причине того, что на площадке продавались ссылки.
ИМХО, траст донора в Яндексе - это более системный чем непот коэффициент, влияющий на передачу ссылочного с донора, опять таки учитывающий в том числе фактор продажности ссылок на доноре.
По параметрам это первое, что пришло мне в голову. Но я в этом методе кое чего не додумал сразу, и мне он показался не эффективным.
Теперь я вижу, что он не многим хуже моего метода. Но все равно, мой метод мне кажется более системным, что ли.
Т.е. его суть - один и тот же HTML код должен отображать одни и те же ссылки.
А прокси, например? И не обязательно все страницы перебирать, так, главную и одну-две внутренних на выбор, и не более одной за один раз - никто и не заметит...
А непот, а траст, а вообще, борьба Яндекса с покупными - тоже пароноя? :)
Не очень понял, но по-моему, я не о кешировании на стороне клиента.
Не очень согласен про почти любой. Я бы сказал, 90% страниц в сапе меняются не чаще раза в месяц, а то и реже.
Можно хотябы раз в день пересчитывать хэш для страниц - этого достаточно для подавляющего большинства случаев. Кроме того, если они и так качаются ежедневно, то доп нагрузки не будет. Можно, как я уже говорил, даже не считать какой-то хэш, а брать размер страницы.
И кстати, причем тут висящая сапа (клиентская часть) и нагрузка по алгоритмам функционирования?
Не очень понял, можно расшифровать?
Интересно, если столько раз обсуждалось, почему на сапе не сделелали?
И напишите, пожалуйста, какой подход проще и не менее эффективный, чем у меня? Или ссылку дайте, где описан.
Откуда такая уверенность?
Я не утверждаю, что на основании только этого фактора Яндекс, например, делает вывод о трастовасти донора, но думаю, что как один из факторов, вносящий не маловажный вклад, вполне.
Метода 2 бесплатных. Или искать где бесплатно ссылки разместить, или пиарить, чтобы люди сами размещали ссылки.
Соответственно вопрос распадается на два:
1) Где размеcтить бесплатных ссылок?
2) Как лучше пиарить статью?
А заодно нужно будет разобраться с тем, как лучше составлять анкоры для ссылок.
Вобщем тема обширная, ищите в поиске :)
ИМХО анкоры для каталогов ничем не отличаются от анкоров для других типов доноров.