Не вопрос, готов заказать, пусть кто-то отзыв напишет, с нормальной репкой и не вчерашней датой реги.
Да ? а бывает без ? Хорошо! Значит выходит, что всё что отличается от анкора, скажем ключевика, который двигаем - значит естественное ? Ок, следовательно можно сгенерить анкоров 5К штук, все разные с текстом из сайта. Вспомним сейчас 2006 год и поехали ? Всё так просто ?
Ха, жаль, что только свои. :)
А может у вас просто отвалились страницы и траф упал из-за этого ?
Но это скорее вариант склейки, если я правильно понял по теме.
ну а я просто не вижу других вариантов.
Или банально определение по анкор-файлу, с учётом даты индексации ссылки и входа её в анкор-файл, что с свою очередь может привести к делению, старые - новые. Старые относим к "нормальным", если так можно назвать с учётом их фильтрации, как в мадридском докладе. Все новые по хар. признакам относим к сео, сравнивая с текущим уже отфильтрованным анкор-файлом.
Или фильтрация по донорам. Я пару страниц назат писал об этом.
отменить ссылочное ранжирование ? и чего будет ?
Nicola добавил 24.09.2010 в 15:56
да нельзя. но говорим про другое.
можно ведь определить сео ссылку по анкор-файлу. банально там анкор просто будет повторятся, если убрать околоссылочное. ;)
Да знаете и свои доноры мрут и чего с ними только не бывает. Даже ЯК вылетает и такое есть. :)
САПА да, там построить сложно что-то, но возможно. Вы просто рассуждаете о процессе построения ручным способом, я о нём сужу, как и машине которая работает. Парсит, покупает, проверят и прочее. Задания выполняются по крону или по необходимости.
Свои доноры хороши тем, что не станеш переступать порог из-за которого сайт вылетит или зафильтруется. САПА это другое.
Но свои доноры тоже поймите, это не труп, на который вешай или не вешай. С ними работы тьма.
Соглашусь в том, что эфективность своих выше. :)
Но мы тут о другом.
Ещё и в довесок, убирая одну и ставя другую, точно сказать, что вторая работает тоже сложно. :)
Если взять учёт времени, то поставив ссылку сегодня - трудно сказать будет она работать завтра или нет. И при наступлении этого "завтра", мы считаем, что она не работает и снимаем её. Это не произойдёт с ссылкой, которую поставил челоек. Он поставил и забыл. И тут спустя время ссылка пропала. Следовательно при очередном обходе бота, он видит страницу, без ссылки из чего можно сделать вывод согласно этой странице. Ну и далее если так происходит с сайтом в целом, можно сделать вывод по сайту.
Nicola добавил 24.09.2010 в 02:14
Не совсем. Имея white лист свой, есть больше шансов и вероятности того, что эта ссылка будет работать. Хотя если работает одна ссылка на странице - это не значит, что будет и работать другая. И точно также.
Но в этом случае % вероятности выше.
Интересно, а есть смысл отсеивать ссылки ? Их много, даже очень. Может проще отсеивать доноров ? Постранично ?