- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Можно по подробнее, где выставляется этот лимит? Впервые слышу, что он изначально ограничен
Ты рехнулся уменьшать? Ставь на усмотрение гугла или яндекса.
Вот что гугл пишет:
Внимание! Если снизить частоту сканирования роботом Googlebot, это может повлечь определенные последствия. Робот Googlebot будет находить меньше новых страниц, имеющиеся в индексе страницы будут обновляться реже (например, сведения о доступности и ценах товаров станут позднее появляться в результатах поиска), а удаленные страницы будут дольше сохраняться в индексе.
Ты рехнулся уменьшать?
Внимание! Если снизить частоту сканирования роботом Googlebot
Когда вы уже научитесь читать, и пользоваться Гуглом?
При чем здесь частота сканирования?
У ПС есть выделяемый лимит ( обьем) ПС для сайта, который вы используете на полную катушку.
Уменьшаем использование этого выделяемого обьема. Т.е отдаем ботам контент не со всех страниц сайта, а только с новых или измененных
Частота сканирования остается на максимум. Так как, даже при максимальной скорости, нагрузка на сайт ботами ПС в этом случае нулевая
Когда вы уже научитесь читать, и пользоваться Гуглом?
При чем здесь частота сканирования?
У ПС есть выделяемый лимит ( обьем) ПС для сайта, который вы используете на полную катушку.
Уменьшаем использование этого выделяемого обьема. Т.е отдаем ботам контент не со всех страниц сайта, а только с новых или измененных
Частота сканирования остается на максимум. Так как, даже при максимальной скорости, нагрузка на сайт ботами ПС в этом случае нулевая
Вот банально, настройки одной ЦМС для сайтмапа, играет роль изменяя что-то тут? К примеру для сайта с 300 постами в сутки. Гугл не успевает, видно, что даже в статус не проиндексировано не попадает.
Вот банально, настройки одной ЦМС для сайтмапа, играет роль изменяя что-то тут? К примеру для сайта с 300 постами в сутки. Гугл не успевает, видно, что даже в статус не проиндексировано не попадает.
У меня так:
Важно отметить, что значения, которые вы присваиваете тегам priority или changefreq, являются только подсказками для поисковых систем, а не директивами.
Это означает, что поисковые системы могут проигнорировать эти подсказки, если решат, что эффективнее сканировать ваши страницы по-другому.
И вишенка на торте: Google вроде как больше не использует атрибут <priority>. 🤣
Вот банально, настройки одной ЦМС для сайтмапа, играет роль изменяя что-то тут? К примеру для сайта с 300 постами в сутки. Гугл не успевает, видно, что даже в статус не проиндексировано не попадает.
Не использую сайтмап, как метод для индексирования. Хотя в Гугле для сайтов прописываю два сайтмапа.
Сделай чтобы успевал, используй роботов ПС по минимуму