- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
наверное потому что еще давно были рассуждения о частоте походов робота, так вот пришли к тому, что если страница вообще не меняется, то робот приходит на нее все реже и реже... Это логично, зачем, если там пятый год одно и тоже ? ;)
Я гдето уже писал, что проводил такой эксперемент.
На страницах нескольких сайтов которые два года вообще нетрогал поставил слова вида gcvytfybyt, через неделю яндекс-гоголь их уже знал, и в поиске они искались, а страници были в трех=четырех кликах от главной
наверное потому что еще давно были рассуждения о частоте походов робота, так вот пришли к тому, что если страница вообще не меняется, то робот приходит на нее все реже и реже... Это логично, зачем, если там пятый год одно и тоже ?
а вы про ссылки забыли... Если стоит ссылка на страницу - робот на нее придет, если 2-ве - робот еще быстрее придет - теория вероятности. Чем больше ссылок - тем больше вероятность захода робота и его частота.
aka352,
Полностью согласен.
Даже сейчас появились сайты на которые я поставил недавно ссылки, но общее кол-во ссылок не увеличилось, позиции стоят как вкопанные.
А до апа еще далеко.... После апа отваливаются ссылки, также замечено что и между апами. Сегодня 6 отвалилось.
Яндекс - это как живой аргонизм, роботы ходят и постоянно собирают информацию. А потом начинают перерасчитовать в течение нескольких дней.
aka352, а какие задачи решаются Яндексом в момент апдейта?
- Добавление в индекс новых документов
- Изменение в индексе изменённых документов
- Расчёт вИЦ
А вот со ссылочным не так все просто.
А поиск в лексике ссылок, ой как не факт, что во время апа происходит, поскольку не известно, что искать. Это всё происходит во время поступления запроса. И там всё происходит оЧЧЧень быстро - сами видите.
Естественно, всё имхо.
Jkey, вполне вероятно, что во время апдейта обсчитывается собственная релевантность документов и обновляется кэш.
обсчитывается собственная релевантность документов
А что это такое? Релевантность чего чему обсчитывается? Или Вы имеете ввиду, что расчитывается "важность" документа и соответсвие его содержимого содержимому текстов в ссылках на этот документ?
Врядли это имеет какое-то значение.
До того, как Яндекс не получит запрос, он не в состоянии расчитать ревелантность документов, хранящихся в индексе к этому запросу. Т.е. ссылочное ранжирование - именно тот коэффициент, который напрямую зависит от запроса. Во время аппа просчитать хоть что-то подобное - нереально.
Опять - имхо.