- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
Возник такой вопрос.
sitemap.xml на сайте генерируется динамически. Страниц более 2000 и в день добавляется от 4 до 10 новых. Заметил, что некоторые очень старые страницы до сих пор не проиндексированы, а вновь добавляемые могут попадать в индекс достаточно быстро.
Имеет ли смысл отображать в sitemap.xml только страницы, отсутствующие в гугле и яндексе? И отображать их там только до тех пор пока не проиндексируются?
Увеличит ли это скорость попадания в индекс новых страниц за счет того, что яндекс/гугл с меньшей вероятностью станет перепроверять старые страницы (так как их в сайтмапе не будет), а сразу пойдет на новые?
Кто что думает?
Заранее спасибо за ответ!
sitemap переводится как карта сайта, вот и думайте зачем она.
выводить нужно все страницы.
Увеличит ли это скорость попадания в индекс новых страниц за счет того, что яндекс/гугл с меньшей вероятностью станет перепроверять старые страницы (так как их в сайтмапе не будет), а сразу пойдет на новые?
Нет. Это вообще костыль, который по большому счету ПС не нужен. И индексация и скорость оной от него не зависят. Я на 70% сайтов без него обхожусь и все отлично.
я думаю, что она нужна и ее нужно добавлять в вебмастерских ПС-ов. и прописать в роботсе ее нужно. удалять ничего из нее ненужно, а то она получится кривая да и риск выпада проиндексированных страниц появляется.
Увеличит ли это скорость попадания в индекс новых страниц за счет того, что яндекс/гугл с меньшей вероятностью станет перепроверять старые страницы (так как их в сайтмапе не будет), а сразу пойдет на новые?
Под Я- да.
да и риск выпада проиндексированных страниц появляется.
Проверено опытом?
---------- Добавлено 28.10.2013 в 13:18 ----------
аметил, что некоторые очень старые страницы до сих пор не проиндексированы
сайтмап нужен, что бы бот зашел на страницу. Потом определяется нужна ли эта страница в индексе или нет. Т.е. бот зашел на страницу (сайтмап отработала свое назначение), а страница была не добавлена в индекс по той или иной причине- сайтмап уже не причем.
Разумно только если sitemap содержит 50.000+ url или больше 10Мб.
Да и то, тогда лучше разбить на несколько файлов.
Под Я- да.
Проверено опытом?
предположение на основе здравого смысла