VioLeNt

VioLeNt
Рейтинг
11
Регистрация
14.02.2010
XTR:
Ссылки перестают просто передавать вес или с понижающим коэффициентом. Это зависит от "черной метки", выданной сайту. Антиспамовых алгоритмов-то много

может проще из индекса все выкинуть, а оценивать у акцептора определенный набор ссылочной массы.

ну вот возьмите обучающую выборку, скажем асессоры присвоили нескольким сайтам наивысшую релевантность. У многих из них есть ссылки скажем плохие. Далее матрикснет обучается по выборке, и что он делает то с плохими ссылками у релевантных сайтов из выборки?

XTR:
Если сайт много ссылается на другие сайты, которые помечены плохими, то он сам может быть помечен, как плохой источник ссылок. Это логично.

и как только он помечается, что дальше? он дает отрицательный вес, или ничего не дает? или может просто вылетает из индекса?

burunduk:
систему актуальных вайт листов

актуальных чему? универсальных доноров? или незанепоченных?

по моему скромному наблюдению, двигаться стоит в сторону обрезания фильтрами наиболее сомнительных доноров, в том числе и ориентируясь не на неосязаемую рабочесть, а на долговременность вложений. Я бы к примеру поставил бы ссылку с тематически близкого донора, не переспамленного внешним с нормальным кол-вом страниц в индексе. Причем тиц и возраст также в той или иной мере может характеризовать площадки. Плюс ко всему прочему никогда не старался бы однотипно закупать с одного и того же пласта доноров, пытаясь разнообразить ссылочную массу и новичками, и старыми авторитетными сайтами, и даже где то и не тематично близкими.

На счет рабочести ссылок, по своей сетке могу сказать что не все так однозначно, одни ссылки на одних дают плюс, такие же ссылки частенько на других разочаровывают. пожалуй однозначно сказать о рабочести можно для каждого конкретного случая для каждой конкретной связки донор - акцептор. ((( раньше все действительно было попроще)) а уж заранее предугадать рабочесть для конкретного случая, да еще и системно реализовать ее на конвеере как то ..

А где можно взглянуть на доклад про тиц от Вольфа, и на всем так понравившийся доклад от Рук? с нами то простыми смертными поделятся графиками?

Fresher, Wolf, будут доклады вывешены в паблик, или это все только для питерских пацанов?

А за сколько может быть пессимизация? скажем сколько ссылок должно попасть в вэбмастер чтобы была пессимизация? думаете есть четкий алгоритм с фиксированным числом?

Ну не совсем так :), ну раз есть региональность, пусть будет галочка в проекте. плюс они утверждают что присвоили тематику всем биржевым сайтам, соотвтетсвенно галочку поставить под тематикой не помешает. Прогноз ссылок лучше не до 3-х а до двух, заспамленные сайты в среднем тица не дают уже давно, а там посомтрим что останется. естественно страниц в индексе больше 50 минимум, ну и возраст, 🙅 здесь есть несколько стратегий, поэтому на счет возраста я промолчу. Ссылок дешевых в руках дохренище, благо девять бирж всяких, но я беру по рублю.

Фильтров я таких устанавливаю два, но какие различия я не скажу:), добавлю что система сама за меня будет держать бюджет и докупать вылетевшие. В общем как то так. Да, я ставлю анкор урлом. Такими фильтрами и расчитываю выгребсти из бирж ссылок, посмотрим как сработает, о резултатах не скажу.

PS. я не претендую на истину, так что кому не нравится - мне наср.

seocake:
Специально чтоб сапо страницы отсеивать - не стали бы придумывать. Для копипаста и создан.

не только же ведь один копипаст?

Факторов может быть куча, к примеру ваш текст хреновый, но недостаточно, чтобы набрать факторов на бан. а вот уже с продажными ссылками, пусть и двумя - стало достаточно. Матрикснет же:).

Brand from Amber, я имел ввиду что сайт станет известен и набираться будет через браузер.

Если по ссылкам, тогда ссылочый взрыв на форумах и блогах нужно устраивать :)

cyberq:
Мне кажется даже при 30% supplemental стоит отказаться от размещения.

и что же за сайты тогда остануться?

Всего: 64