Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006
antivir:
Скажите, а программа не показывает, с каким анкором идут ссылки?

Внутренние нет, внешние показывает.

anthony_:
Выслал, посмотрите.

Ваши сайты не работают :( В смысле вообще - сервер не найден. Повторим попытку позже...

Malcolm:
Это ужасно 🚬 А не планируете в ближайшем будущем добавить такое ограничение? Для расчета перелинковки с неполной выборкой страниц достаточно приравнивать ссылки, уходящие на четвертый и далее уровень, к внешним. На точности вычисления это не особо скажется. Да и в реальном расчете весов участвуют опять же не все подряд страницы, а только известные google, так что выборка и там не полная.

Планируем парсить проиндексированные поисковиками страницы, и их уже обсчитывать. А на данный момент ограничения можно настроить в robots.txt (естественно, если сайт принадлежит Вам), или в настройках.

anthony_:
Я тоже не совсем понимаю в чем проблема, вернее совсем не понимаю, почему программа не работает.
Хоть с robots.txt, хоть без без, результат один.

В результате я имею то, что описал выше.

p.s.
В интерфейсе ошибка.
"Удаление дублирующихся ссылКОК.. завершено".

Мое мнение - все пока еще очень сыро, с релизом вы поспешили.

Скиньте УРЛы сайтов в личку - посмотрю.

anthony_:
Приобрел программу, запустил.
Любой сайт дает следующую картину.

Номер - 1
Заголовок -
Ссылка - /
СВна - 0
СВс - 0
УС - 1

Все..

Хочется спросить - "И?"

Мне одному так не везет что ли?
Жду разъяснений.

Не совсем понял в чем проблема. Если скан не идет дальше первой страницы - снимите галочку "использовать robots.txt"

k.d.r:
Sterh, ну тогда верните деньги, зачем она мне если она не тянет больше 5000 страниц?

Движок DLE, и страниц около 100к

Нет проблем. Номер кошелька и мыло, куда высылалась программа в личку плиз.

Malcolm:
У сканера программы есть возможность настройки максимального уровня вложенности страниц, которые будут скачиваться, или она скачивает все подряд что найдет? Например "получить все страницы не далее двух кликов от главной".

Нет, такого нет. Парсит все, что найдет.

AlexThunder:
Полагаю, это параметр, позволяющий увеличивать вес в случае совпадения хороших (++) реципиент/донорных качеств.
Иными словами:
- если совпадение есть, то дополнительный вес (траст) начисляется исходя из этих самых рец-дон качеств;
- если совпадения ++ нет, то дополнительный вес (траст) отсутствует и вес исчисляется из других базовых показателей.
В связи с этим выходит, что траст или есть или нет. И отрицательного траста быть не может, а падение получается ввиду того, что система ++ не срабатывает.
wolf, так что ле?

Очень интересно, но надо переварить :)

devzev:
Траст влияет на передачу веса ссылки.
Ну примите траст как долю передаваемого веса. Если он = 50. То он передаст 0,5 от положенного веса.
Он влияет на передаваемый вес. Чем выше траст, тем большую долю положенного веса он передаст Многие говорят, что сейчас идёт ранжирование чуть ли не по одному трасту. Я с этим несогласен.

Вот я и говорю, что траст к банальному PR сводится.

devzev:

Да. Но это очень тяжело. Именно это объясняет, что нетрастовые сайты легко понизить в выдаче.

Вот по Вашей линейке как раз очень легко получается - купил ссылку с трастом 31, потом 24, потом (лень считать) 11 - и все, конкурент в дауне. При этом, чо бы конкуренту выбраться, он должен сбалансировать происки врага - т.е. покупать дорогие ссылки, в то время, когда враг покупает более дешевые. Таким образом война бюджетов заведомо проиграна.

devzev:


devzev добавил 16.01.2009 в 19:29
Траст одинаков у всего сайта.
Ссылки с морды работают как правило лучше только из-за того, что у неё больше ВИЦ из-за бОльшего кол-ва входящих ссылок.


Траст - это доверие!

Чем выше траст, темо бОльшую долю веса ссылки он передаст.

Лёгкий пример:
Донор А: траст = 0.8, ВИЦ = 20 -> передаваемый вес реципиенту 0,8*20=16
Донор Б: траст = 0.5, ВИЦ = 50 -> передаваемый вес реципиенту 0.5*50=25

Ну что-то такое...

... пока жал кнопку "ответить", Вы оказывается добавили :)

Т.е. Вы четко отделяете траст от ВИЦ. При этом, если ВИЦ определяется входящими ссылками, то чем определяется траст? ...Если тоже ссылками, то зачем два разных алгоритма, обрабатывающих одни и те же данные?

devzev:
Нет. Смысл был посмотреть как влияют доноры разных качеств.

Влияют на что? На траст акцептора? Как отследили изменение этого траста тогда?

devzev:

Понижение акцептора был как побочный эффект, который меня удивил и я его повторил. Я не делал на этом основании вывод о трасте.

ИМХО, но вот как раз на понижении акцептора и нужно было сосредоточится...

devzev:

Позиции в серпе (по определённому ключу) от траста не зависят. А если и зависят, то с рядом других параметров которые я не смог пока "расщепить".

Задача эксперимента была находить трастовых доноров, покупать на них ссылки и взлетать в топ. Я её выполнил.

Угу... если в данной цитате слово "трастовые" (выделено мной) заменить на "рабочие", то все встанет на свои места.

................

Давайте все же попробуем определиться что такое траст и на, главное!, на что он влияет.

Если траст, как таковой, не влияет на позиции в выдаче, то зачем он нужен?

Если он все же влияет, то взяв Вашу линейку облака траста, можно опустить конкурента постепенно скупая ссылки всё хуже и хуже, чем у него были изначально.

Далее, если траст - это степень доверия Яндекса к сайту, то как он определяется и как применяется? Если брать обычную человеческую логигу, то доверие либо есть, либо нет. Можно доверять человеку, у которого траст 50% скажем (т.е. он врет через раз)? Если же определять траст как степень ценности сайта для человека, то тут уже можно и циферками поиграться, и ссылочное приплести. Но капая глуюже, все равно все это сведется к банальному PR.

Так что же такое траст, как его измерить и с какого боку приложить?

2 devzev маленький уточняющий вопрос:

Суть эксперемента в том, что проставляя ссылки с определенным анкором на определенных донорах, Вам удалось понизить позиции акцептора по запросам, соответствующим размещенным анкором.

И на основании этих результатов Вы делаете выводы о трасте.

Я правильно Вас понял?

Фома:
Sterh, я просто удивлен, что я один единственный описал эту проблему. DLE движок довольно распространенный, и если никто об этом не спрашивает, думал где то у меня проблема.

Да я вот сам удивился... и видимо потому, что никто больше не спрашивал, мы не уделили должного внимания этой проблеме, за что приношу свои извинения. Сейчас те три сайта, которые Вы мне в личку скидывали, используем как тестовые, ток что если увидите в логах настырных ботов - не серчайте :)

Н_а_т_а_ш_а:
Я жду. Уже второй месяц. Не где не гоняла и контент даже не добавляю пока в индекс не попадет. Я тиц вообще не наращиваю, он сам потихоньку набирается.

Прогоните хотя бы по каталогам. Это НЕ повредит, а индексацию ускорит. Да и в первом посте ссылку на сайт лучше сделать кликабельной ;)

Flanker:
Имеет ли смысл покупать допустим 3 ссылки с одного сайта но с разными анкорами ?
И еще...вебмастер показывает что у меня 400 ссылок проиндексированно, при этом 400 ссылок находятся на 298 сайтах. В сапе же у меня куплено 577 ссылок.

Вот и вопрос, получается что чуть ли не 250 ссылок куплено напрасно и ничего они не дают ?

Несколько ссылок с одного сайта иногда получаются и сами по себе. Чаще всего такое происходит, когда размещаешь ссылку в динамическом каталоге. Т.е. по мере добавления туда других ссылок, Ваша ссылка "съезжает" на другую страницу, при этом в базе поисковика остается и страное "местоположение" и индексируется новое.

Так же несколько ссылок получается если сайт-донор использует "метки". Т.е. добавляя в закладочник сайт и прописывая к нему метки, мы получаем не одну ссылку, а несколько - со страниц, сформированных по меткам. Ну и т.д.

В принципе ничего страшного в этом нет, но и особой пользы тоже ( в том случае, если живо еще предположение, что Яндекс учитывает только одну ссылку с ресурса), а для Гугля это наверное плюс :)

Так что именно покупать несколько ссылок с одного ресурса с разными анкорами, но одинаковым УРЛ, я не вижу смысла.

Всего: 2038