- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
il4, директива Revisit-After в <head></head>, это было в каменном веке 😂
Яшка считает, что :
Могу ли я помочь роботу быстрее индексировать мой сайт?
Чтобы ускорить появление остальных страниц сайта в индексе, нужно, во-первых, исключить из индексации ненужную информацию, во-вторых, сообщать роботу о новых страницах:
* запретить в robots.txt индексацию страниц, неинтересных пользователям. Например, формы ответа на форуме, статистику посещений, сайты-зеркала, документы на нераспространенных в рунете языках;
* создать карту сайта, то есть страницу или несколько страниц, на которых есть ссылки на все документы сайта;
* выдавать корректные заголовки ответа сервера (например, если страница не существует, выдавать ошибку 404, а если поступил запрос «If-Modified-Since», то выдавать код 304, если страница с указанной в запросе даты не изменилась);
* каждой уникальной странице сайта, по возможности, должен соответствовать только один URL. Распространенная причина появления дубликатов — генерация сайтом URL с незначащим параметром, изменение которого не приводит (или не всегда приводит) к изменению страницы.
http://webmaster.yandex.ru/faq.xml?id=502475#howtohelp
директива Revisit-After в <head></head>, это было в каменном веке
во во, как и last modified, такой же боян для яшинского бота...
если по заголовку то дастаточно просто перезаписывать файл на серваке с локального компа!
Ну и ну :) Про программирование слышали когда-нибудь? ;)
Я считаю, что поисковик "обновление сайта", а если точнее - время следующего прихода робота, определяет комплексно.
1. Заголовок Last Modified учитывается - попробуйте менять заголовок и добавлять новую страницу в AddUrl несколько раз. Увидите ;)
2. Обновление, а вернее изменение контента - учитывает.
3. Сайты из каталога Яндекса индексирует чаще, тем аналогичные - вне.
Теги Revisit-After - не учитывает.
если он будет сравнивать контент у него займет почти столько же времени скалько на переиндексацию страницы. Так следует что по заголовку он определяет!
если он будет сравнивать контент у него займет почти столько же времени скалько на переиндексацию страницы. Так следует что по заголовку он определяет!
ого, смело, а как контент он не переиндексирует что ли?
если дата совпадает с предыдущий индексации то нет, если дата другая то да
если дата совпадает с предыдущий индексации то нет, если дата другая то да
а у кого не прописано? у меня ни на одном сайте нет, а страницы переиндексирует регулярно!
Согласен с Константином Кашириным, считаю, что ПС не может учитывать только один фактор, дающий понять, что страница обновлена. Если бы учитывался ТОЛЬКО Заголовок Last Modified - можно было бы каждые 2-3 часа по одной буковке в коде менять и заголовок так же будет изменяться ))) не логично это!
Контент тоже учитывается при проверке ботом странички на наличие изменений!
ИМХО, но никакого порога изменения нет. На странице изменяется одно слово - через некоторое время она переиндексируется (от 3 дней до 2-х недель). Кстати подсветка ускоряет.