- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Дима Dexter, по поводу "слабеньких запросов". Можно в рамках гипотезы допустить, что пока необсчитанным мадридским счетом анкорам дают не ноль, а некий базовый мизер. Сумма N мизеров может повлиять по слабенькому запросу, но останется незаметной по более-менее серьезному
Очень даже логично, в целом получается более-менее стройная система.
1. С "мадридскими" свойствами вышел затык при реализации, поэтому новые анкоры обсчитываются не сразу.
2. Не обсчитанные анкоры получают минимальный вес.
3. Обучение алгоритма идет методом генетической оптимизации полинома, в котором может быть около 163-х параметров. Это звучит диковато, такой алгоритм может сходиться годами... :D
3. Несмотря на большое количество известных и не плохих целевых функций для обучения алгоритма, Яндекс разработал свою - pfound, реально креативную, формулы будут на РОМИПе, если кому-то интересно.
4. Обучение проходит на данных от асессоров, данных уже много.
5. Если ГА сходится очень долго, то обучающая выборка наверняка не пополняется новыми запросами, она только дополняется парами <запрос-документ> для свежепопавших в топ-100 и быстренько обработанных асессорами.
6. В виду того, что (по словам яндексоидов) pfound используется уже давно, видимо уже сложилось мнение, что при значениях целевой функции больше некоего числа выдача по-любому будет не плохой. Поэтому при нахождении нового локального максимума (с помощью перманентно запущенного ГА), который выше предыдущего, можно запускать апдейт, он должен улучшить выдачу. Локальные максимумы могут находиться до некоторых пор регулярно, так что апдейты можно выдавать часто. И позиции при этих апах будут скакать слегка, чем дальше новый локальный максимум от прошлого в 163-мерном пространстве параметров, тем выше будет "шторм".
Примерно как-то так. И это не радует ни разу. :)
Можно в качестве гипотезы предположить, что яндексоиды начали учитывать динамику прироста ссылок. Т.е. если прирост ссылочной массы идет постоянный (ну скажем в течении месяца-двух), то рост позиций наблюдается в серпе, а если на сайт за неделю-две накуплено большое количество ссылок (например 500) а потом ссылки не покупаются (прирост мизерный идет), то сайт стоит как вкопанный.
Можно в качестве гипотезы предположить, что яндексоиды начали учитывать динамику прироста ссылок. Т.е. если прирост ссылочной массы идет постоянный (ну скажем в течении месяца-двух), то рост позиций наблюдается в серпе, а если на сайт за неделю-две накуплено большое количество ссылок (например 500) а потом ссылки не покупаются (прирост мизерный идет), то сайт стоит как вкопанный.
Это не логично, лучше после окончания резкого прироста в "зад" бросать, чем поднимать в выдаче что-либо "бывшее" когда-либо актуальным.
возможно в данном случае это старая проблема, сложно сформировать корректную выдачу по несерьезным запросам из-за отсутствия достаточной выборки релевантных запросу ресурсов и приходиться использовать не просчитанное ссылочное :)
Не, не катит гипотеза. Истинную релевантность документа запросу пока не возможно просчитать алгоритмически, ее оценивают живые асессоры. А они оценивают только мизерный набор из общего списка запросов. По запросу, который приводили выше, документов на сотню должно хватать.
Кстати, сео-запросы, столь любимые Женей Трофименко, асессоры не рассматривают. Оно и правильно, зачем смотреть намеренно искривленную выдачу? :D
Всю тему не читал, может уже где-то писалось, но сделал 1 наблюдение:
Снял все ссылки на 1 сайт с начала месяца, СЧ и НЧ фразы как сидели в топе, так от туда никуда и не деваются, следовательно ссылочное с того дня и не пересчитывалось.
Истинную релевантность документа запросу пока не возможно просчитать алгоритмически, ее оценивают живые асессоры.
в том-то и дело, что
А они оценивают только мизерный набор из общего списка запросов
следовательно приходиться учитывать ссылочное для подобных запросов, иначе даже новости не смогут попасть в выдачу
В смысле, были на ромипе? Там вообще кто отсюда был?
В смысле, были на ромипе? Там вообще кто отсюда был?
В том смысле, что будут выложены в архиве на их сайте.
На РОМИПе я был в качестве докладчика, знакомых морд не видел, может кто и был по-тихому. :)
В последние 3 апа, Яндекс явно что-то подкрутил: если раньше на сайте был текст "мойка слонов" и где-то отдельно, например, "Балашиха", на запрос "мойка слонов балашиха" Яндекс показывал снипет, сейчас же найден по ссылке.
Причем выводятся как новые, недавно купленные ссылки, так и ссылки которых уже нет пару месяцев.
В последние 3 апа, Яндекс явно что-то подкрутил: если раньше на сайте был текст "мойка слонов" и где-то отдельно, например, "Балашиха", на запрос "мойка слонов балашиха" Яндекс показывал снипет, сейчас же найден по ссылке.
Причем выводятся как новые, недавно купленные ссылки, так и ссылки которых уже нет пару месяцев.
Сниппеты не связаны с апдейтами выдачи, а алгоритм выдачи сниппетов не стабилен минимум с декабря, раньше я не пытался его реинженирить. Яндексоиды пока не смогли получить хорошего алгоритма аннотирования, так что сниппеты и дальше будут меняться.
Страницы с давно снятыми ссылками могли еще не переиндексироваться.