- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Если напрмиер Сеопульт использует подобные запросы, то они уже "массовые" и о них знают сотрудники яндекса. Так что следует ожидать прикрытия дополнительных операторов)
Не использует их пульт.
Не использует их пульт.
Во! Именно об этом я и говорю :)
Ответ автора на похожий вопрос
Блин, а не означает ли это уважаемый автор топика, что берите-ка вы дорогие мои все! И при равномерном распределении учтется ффсе. Так ведь это же чтд получается, которая просто не учитывает экономическую целесообразность;)
Вообще ладная теория получается, но несостыки есть
Да. По идее при большом равномерном распределении учтётся почти всё.
Несостыковки есть. Но я всё дорабатываю и ищу им объяснения. Это нормальное явление. Ведь параметров наверняка побольше в ранжировании учитывается.
Сравнение попарное (ну или многогранное) при каждом "событии".
А для уточнения их можно коррелировать. :)
Да. Всё сравнение происходит с эталонами. Пробую всё коррелировать для уменьшение погрешности.
Наверное это я и ждал все 50 страниц. Хотя где-то в середине сложилось прямо противоположное мнение. эталоны не используются.
Ведь параметров наверняка побольше в ранжировании учитывается.
Думаете им вычислительные мощности девать некуда? 🍾 А вообще обдумывайте всё и пишите статью, а потом распилим ее ;)
Думаете им вычислительные мощности девать некуда? 🍾 А вообще обдумывайте всё и пишите статью, а потом распилим ее ;)
Так там и подход с другой стороны. Это оптимизатору необходимо все разгадать, а у них то все данные есть и необходимо только формулу ранжирования настроить (снова все конечно грубо).
Да. По идее при большом равномерном распределении учтётся почти всё.
Несостыковки есть. Но я всё дорабатываю и ищу им объяснения. Это нормальное явление. Ведь параметров наверняка побольше в ранжировании учитывается.
Если составите модель, то сможете определить степень влияния на траст каждого из 140 факторов. И какие-то из факторов сами-собой отомрут. Тут все просто.
Но вся эта модель завязана на вашем "хитром" исходном запросе... Вот где узкое место.
Но вся эта модель завязана на вашем "хитром" исходном запросе... Вот где узкое место.
Не только здесь. Вся модель строилась, судя по всему, вопреки якобы общепринятому определению трастового донора по тИЦ. В результате "открыты" критерии, которые уже давно известны (учет количества страниц, количество внешек, количество входящих ссылок - причем биржи уже показывают эти данные при поиске или анализе площадок). ТИЦ тут действительно ни при чем, непонятно только, почему ТС считает, что все руководствуются именно тИЦ при выборе донора :) С другой стороны, множество факторов, о которых говорил Яндекс и которые подтверждаются на практике, вообще не приняты во внимание. В общем, все это хоть и полезно, но очень сыро и вряд ли будет иметь промышленное значение.
devzev
Скажите, как объясняются ситуации: при вводе в поиск уникального анкора в одном случае первым выводится акцептор (найден по ссылке), вторым - донор, в другом - наоборот?
Не только здесь.
А в чем ещё? Какие нужные факторы не учёл автор темы?