- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если после очередного апдейта вы посмотрите бэки любого сайта и отсортируете по дате, то самые поздние их них будут на 3-4 дня раньше даты апдейта(не считая ссылок быстроробота). На первый взгляд не совсем понятно - почему бы Яндексу не учитывать все ссылки вплоть до даты апдейта?
Само обновление складывается из обсчета двух ключевых значений - внутреннее и ссылочное ранжирование.
В базе Яндекса на текущий момент около 1 млрд страниц. Задача обсчета внутреннего ранжирования, в принципе, решается за 1 проход.
А вот со ссылочным не так все просто. Если мы условно будем считать, что на каждой странице в среднем по 30 ссылок (включая внутренние), то общее число ссылок, подлежащее обсчету уже составит 30 млрд. Более того, алгоритм обсчета вИЦ (PR) - итерационный, т.е. подразумевает несколько десятков циклов обработки всего массива ссылок. А если учесть расчеты всевозможных фильтров и параметров ссылок, то получится, что задача расчета ссылочного ранжирования как минимум на 3 порядка сложнее, чем внутреннего. Соответственно требует в 1000 раз больше ресурсов. Логично, что ни за ночь, ни за сутки обсчитать такой колоссальный объем данных невозможно. По видимому в настоящее время этот процесс занимает у Яндекса до 3-х дней, поскольку ссылки с момента начала обсчета не могут быть учтены и это отражается в бэках сайтов после окончания апдейта.
В свете этого логичными выглядят последние задержки апдейтов. Т.к. для внесения изменений в алгоритмы и промежуточную проверку результатов требуется дополнительно время.
если так, то ставить ссылки на страницах, которые переиндексируются редко - не стоит, я правильно понимаю? Поскольку редко интексируются страницы а - с маленьким рангом, б - статические - редко изменяющиеся, то надо заставлять людей, размещающих твои ссылки размещать их минимум на страницах с динамическим (часто меняющимся) содержимым? Даешь погодные баннеры на все страницы рунета для повышения ссылочного :)
надо заставлять людей, размещающих твои ссылки размещать их минимум на страницах с динамическим (часто меняющимся) содержимым
И каким образом это можно делать, к примеру, если на сайте вообще нет динамических страниц??? - все статические
Да и вообще помоему владельцы сайтов не больно-то пойдут на уступки мол: "Хочешь меняться ссылками - меняйся по моим правилам"
И каким образом это можно делать, к примеру, если на сайте вообще нет динамических страниц??? - все статические
Да и вообще помоему владельцы сайтов не больно-то пойдут на уступки мол: "Хочешь меняться ссылками - меняйся по моим правилам"
а вы с такими не меняйтесь, ссылок у таких не покупайте и т.д. :) хотя вообще то моя реплика относилась к теоретическому аспекту предположения, а вовсе не было прямым руководством к действию прямо сейчас...
если так, то ставить ссылки на страницах, которые переиндексируются редко - не стоит, я правильно понимаю?
Видимо неправильно, потому что суть поста aka352 в том, что просто ссылки учитываются не на момент апдейта, а те, которые проиндексированны за 3-4 дня до апдейта и раньше.
Может кому-то это покажется бредом, но появление ссылок не связано напрямую с индексацией сайта. Несколько раз был свидетелем того, что сайт еще не проиндексирован а ссылки не только уже видны, но уже и учитываются в ссылочном ранжировании. И были случаи и наоборот. У меня забанили большую группу сайтов (делал для постановки экспериментов по ссылочному ранжированию). Так вот ссылки сначала пропали, через 2-3 недели перестоло работать ссылочное, а через 1,5 - 2 месяца упал тИЦ. Самое интересное, что ап тИЦ, который прошел через 2 недели после бана никак не сказался на тИЦ. Пркольно было смотреть на сайт без одной ссылки с тИЦем 50-60
Может кому-то это покажется бредом, но появление ссылок не связано напрямую с индексацией сайта. Несколько раз был свидетелем того, что сайт еще не проиндексирован а ссылки не только уже видны, но уже и учитываются в ссылочном ранжировании. И были случаи и наоборот. У меня забанили большую группу сайтов (делал для постановки экспериментов по ссылочному ранжированию). Так вот ссылки сначала пропали, через 2-3 недели перестоло работать ссылочное, а через 1,5 - 2 месяца упал тИЦ. Самое интересное, что ап тИЦ, который прошел через 2 недели после бана никак не сказался на тИЦ. Пркольно было смотреть на сайт без одной ссылки с тИЦем 50-60
гммм... интересно по поводу ТИЦ ... появилась мысль что тИЦ либо совсем не участвует в алгоритме выдачи либо это последняя инстанция.
Поскольку редко интексируются страницы... б - статические - редко изменяющиеся, то надо заставлять людей, размещающих твои ссылки размещать их минимум на страницах с динамическим (часто меняющимся) содержимым?
Откуда такой вывод? У нас статические страницы индексируются часто и очень хорошо.
гммм... интересно по поводу ТИЦ ... появилась мысль что тИЦ либо совсем не участвует в алгоритме выдачи либо это последняя инстанция.
первое ☝
Я наблюдал еще более интересную картину. Все забаненные сайты подпитывали сетку сайтов, с которой уже шли ссылки на основные сайты. Логично предположить, что поскольку после бана у сайтов сетки резко уменьшится количество ссылок, то и ссылки с них станут менее эффективными, и следовательно основные сайты (их не 1 и не 2) упадут в выдаче. Это и случилось, но примерно через 1, 5 месяца после бана, в АП, который произошел СРАЗУ ПОСЛЕ ПЕРЕСЧЕТА тИЦ. Если это не совпадение, а с Яндексом ничего точно сказать нельзя, то получается, что или тИЦ влияет на выдачу или ВИЦ пересчитывается одновременно с тИЦ. У меня даже была мысль, что это тот АП был не апом, а изменения в выдаче, связанные с пересчетом ВИЦ
Откуда такой вывод? У нас статические страницы индексируются часто и очень хорошо.
наверное потому что еще давно были рассуждения о частоте походов робота, так вот пришли к тому, что если страница вообще не меняется, то робот приходит на нее все реже и реже... Это логично, зачем, если там пятый год одно и тоже ? ;)