- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Dubovoj, определение рабочих доноров тестовыми простановками - это хоть какая-нибудь аргументация в пользу донора. Других же алгоритмов (кроме "на глазок") просто нет.
определение рабочих доноров тестовыми простановками
А как именно вы дальше определяете эту самую "рабочесть"?
А как именно вы дальше определяете эту самую "рабочесть"?
"Рабочесть" ссылки уже не проверочной определить практически нельзя.
Хотя мне кажется, можно увеличить точность такой проверки, используя для проверки одного донора и схожие анкоры.
и одинаковые акцепторы, ведь работают они в связке.
а) фильтры накладываются независимо от алгоритмов ранжирования
хорошо, к примеру можете смоделировать как может работать этот фильтр в матрикснете? просто не учитывает ссылки с плохих доноров? занижает за их переизбыток уже после пересчета основной функции? или скажем каким то образом введен новый параметр - плохой донор? но разве он не потеряется в сотнях других?
Dubovoj, определение рабочих доноров тестовыми простановками - это хоть какая-нибудь аргументация в пользу донора. Других же алгоритмов (кроме "на глазок") просто нет.
я писал уже, были тестовые закупки, в которых для одного акцептора ссылка с донора не работала, для другого работала. Каким образом можно с одного раза (простановки) однозначно решить о работоспособности донора? или сколько ссылок надо поставить, чтобы однозначно понять:) и во сколько такие эксперименты обойдутся. чтобы собирать целый вайт лист
и одинаковые акцепторы
Точно, я именно это и хотел написать. Заработался, видать.
к примеру можете смоделировать как может работать этот фильтр в матрикснете?
Вряд ли сейчас соображу насчёт этого. :)
А чем условия Матрикснета противоречат-то?
А что мешает в Матрикснет включить до кучи соответствующий фактор с учетом качества ссылочного? Ну, например, тот же tf*idf, но только по хорошим ссылкам анкор-листа? ;)
То есть, грубо говоря, для плохой ссылки мы получим только значение Х по фактору "tf*idf по полному анкор-листу", а для хорошей при всех прочих равных - то же X по тому же фактору плюс Y по фактору "tf*idf по анор-листу из хороших ссылок". Причем, Y может быть сильно больше Х.
Не, так не покатит. Если методики для асессоров кардинально не сменили и в обучалово попали сайты с большим и никаким Y, но хорошо заточенные под запрос по тексту, то релевантность в обучалове у них будет одинаковая. Чтобы эффект от большого Y имел место, обучающую базу нужно корректировать после асессора, занижая релевантность документам с большим X и малым Y. Но править автоматом асессорскую работу реально стремно, там косяков повылазит куча. Поэтому в матрикснет оно плохо втыкается, несравнимо проще и логичнее применить пессимизацию за большой (X-Y). :)
Не, так не покатит. Если методики для асессоров кардинально не сменили и в обучалово попали сайты с большим и никаким Y, но хорошо заточенные под запрос по тексту, то релевантность в обучалове у них будет одинаковая. Чтобы эффект от большого Y имел место, обучающую базу нужно корректировать после асессора, занижая релевантность документам с большим X и малым Y. Но править автоматом асессорскую работу реально стремно, там косяков повылазит куча.
думаю что не просто косяков, а реально потеряет смысл
Поэтому в матрикснет оно плохо втыкается, несравнимо проще и логичнее применить пессимизацию за большой (X-Y).
Так почему не проще просто X выкинуть из индекса?
Так почему не проще просто X выкинуть из индекса?
Не X, а X-Y, т.е. все внешние, которые не вошли в "хорошие". Потому что:
А вы не задумывались о возрасте ссылок?
Что мы видим сегодня: Оптимизаторы активно покупают и снимают ссылки в поисках рабочих доноров.
Все это похоже на сверх активную борьбу яндекса с линкоторговцами.
Одно дело, когда ссылка стоит уже год, совсем другое это свежие ссылки при сегодняшних алгоритмах.
Оптимизатор начинает продвигать проект (возможно это не так уж и трудно заметить) - покупает ссылки - эффекта 0, либо падение. Затем ссылки снимаются как неработающие и в результате фильтр на доноров. Другой оптимизатор покупает ссылки с тех же доноров и таже история: эффекта 0, либо падение, ссылки снимаются - фильтр на доноров +1.
Потому что:
такого не наблюдается
чего не наблюдается, выброс занепоченных сайтов из индекса? а примеры можно?
а как тогда продавать вайт-листы?
ох уж эти вайт листы, думаю еще месяцок народ подождет обещанных результатов и ему надоест.