- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сам ввели такую директиву, некоторое время она действовала.
Но сейчас - отказались от нее? Судя по наблюдениям, вернулись на прежний ритм скачки роботом страниц.
Обычная история приключилась:
- Хотели как лучше, а получилось как всегда.;)
Так может уберете ее из http://help.yandex.ru/webmaster/?id=996567
С новым алгоритмом заматались на хелпы времени нету :)
Но сейчас - отказались от нее? Судя по наблюдениям, вернулись на прежний ритм скачки роботом страниц.
Разве был официальный "отказ"? Наверно, бывают сверхценные СДЛ, которые бот хочет переиндексировать как можно скоре ;)
di_max, извините, ваш синтаксис как-то затеняет мысль.Вы хотите сказать, что есть конкретные страницы, при индексировании которых роботом Яндекса не соблюдается корректным образом прописанная директива Crawl-delay, и готовы назвать эти страницы?
Вы хотите сказать, что есть конкретные страницы, при индексировании которых роботом Яндекса не соблюдается корректным образом прописанная директива Crawl-delay, и готовы назвать эти страницы?
Именно так: не соблюдается корректным образом.
Да бы не возникало двойственности, уточню, что НЕ КОРРЕКТНОСТЬ может быть как в сторону уменьшения времени между запросами, так и в сторону увеличения.;)
В своем посте я и отметил, что робот вернулся к таймингами обращений к серверу, которые были ДО введения этой директивы, без учета указанный в ней значений.
di_max добавил 14.12.2009 в 13:10
Наверно, бывают сверхценные СДЛ, которые бот хочет переиндексировать как можно скоре ;)
В ГС замечен не был...;)
di_max, я так и не понимаю, в чем же ошибка яндекса?
В хелпе ясно написано:
Неужели робот яндекса не соблюдает данную директиву? Он сканирует Ваш сайт чаще чем написано в Crawl-delay?
Показывайте логи
Да бы не возникало двойственности, уточню, что НЕ КОРРЕКТНОСТЬ может быть как в сторону уменьшения времени между запросами, так и в сторону увеличения.
В своем посте я и отметил, что робот вернулся к таймингами обращений к серверу, которые были ДО введения этой директивы, без учета указанный в ней значений.
Двойственность как раз возникла.
http://help.yandex.ru/webmaster/?id=996567#1022359
Поисковый робот Яндекса поддерживает дробные значения Crawl-Delay, например, 0.5. Это не гарантирует, что поисковый робот будет заходить на ваш сайт каждые полсекунды, но дает роботу больше свободы и позволяет ускорить обход сайта.
Можно узнать, о какой некорректности может идти речь в "сторону увеличения времени между запросами", если речь идет о минимально разрешенном вами интервале между запросами к серверу? Вы где-нибудь в процитированном выше куске текста видите принятое Яндексом обязательство индексировать ваш сайт не реже, чем вы того хотите?
Давайте попробуем еще раз - вы можете назвать конкретные страницы, которые индексируются роботом Яндекса чаще, чем указано в соответствующей директиве в robots.txt на вашем сервере?
пример некорректности работы Crawl-delay
robots.txt:
site_access.log:
robots.txt читает, а выполнять не хочет
mimicunit, и где в Вашем примере цитирую минимальный период времени (в секундах) между концом закачки одной страницы и началом закачки следующей меньше установленной Вами 2 секунд?
mimicunit, и где в Вашем примере цитирую минимальный период времени (в секундах) между концом закачки одной страницы и началом закачки следующей меньше установленной Вами 2 секунд?
для танкистов:
берем 2 строчки лога:
дата одной записи - [14/Dec/2009:19:13:27 +0300] , дата второй записи - [14/Dec/2009:19:13:48 +0300]
делаем простейшее вычитание 19:13:48 - 19:13:27 = 21 секунда
из 3-го класса мы помним( s91 - вы уже 3-й класс закончили? ), что 21 секунда меньше 2 минут( 2*60=120 секунд )