- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Чтобы узнать, изменился ли контент, документ надо скачать. А, значит, места в квоте на кол-во забираемых документов, станет меньше.
Сергей,
скорее всего Яндекс использует двух-ходовку для выяснения обновимости документа ... он не случайно делает HEAD с If-Modified-Since ...
просто первых ход - техническя проверка изменения, а уже при реальной загрузке документа (при первом ответе "документ изменен") - логическая и текстовая проверка изменимости ... и, скорее всего, изменение дизайна (без навигации) яндексу "не скажут" что документ был изменен ...
Не вижу связи. По идее, при добавлении нового материала на сайт он анонсируется на главной странице, где держится достаточно времени, чтобы робот мог понять, новое это или нет. Вовсе не обязательно обходить заново все страницы.
Не забывайте, что индексирующий робот с каждым заходом еще и проверяет на наличие изменений уже проиндексированные страницы. При большой массе сайта, таких проверяемых страниц становится много и скорость индексации новых сильно замедляется.
Бороться с этим можно через наличие поля Last-Modified, о чем уже было тут сказано, - заметно помогает.
Не забывайте, что индексирующий робот с каждым заходом еще и проверяет на наличие изменений уже проиндексированные страницы. При большой массе сайта, таких проверяемых страниц становится много и скорость индексации новых сильно замедляется.
Бороться с этим можно через наличие поля Last-Modified, о чем уже было тут сказано, - заметно помогает.
Все верно, то что нужно Last-Modified - поддерживаю. Но не нужно забывать и о том, что даже при корректном Last-Modified, если страницу запихнули далеко глубоко, робот также долго не сможет ее найти и узнать об ее обновлении(существовании). Так что нужно и Last-Modified и вынос на гл. страницу (или у кого что, главное чтобы роботу легко добраться было)
нет смысла делать сйт объемом больше 600-800 страниц, а как же тогда все рагзговоры по поводу увеличения контента и.т.п.???
Контент - контентом, а анализ анализом. Из Яндекса можно получить информацию о 5000 проиндексированных на сайте страницах, из Google - 1000. Они покажут общую цифру проиндексированного, но реальные адреса - увы. Если реального разного контента настолько много, лучше, дойдя до 1000 страниц на одном сайте, создать другой.
Джентельмены, не подскажите какой из ботов Яндекса делает запрос HEAD?
Я только закладочника в своих логах с таким типом запроса наблюдаю...