- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте,
генераторы Sitemap делают большие файлы, в которых много "мусора" - страницы с Page=X, Tag=X, и.т.п.
Я обычно такие страницы удаляю, но решил посоветоваться, может не надо этого делать, просто вываливать google все как есть ?
генераторы Sitemap делают большие файлы, в которых много "мусора" - страницы с Page=X, Tag=X, и.т.п.
во всех нормальных цмс генераторы карты делают только посадочные страницы, без пагинации итд.
Если вы пользуетесь каким то кокретным внешним генератором укажите его -и покажите какие там есть настройки. Первый раз слыша про пагинацию в карте))
Я обычно такие страницы удаляю, но решил посоветоваться, может не надо этого делать, просто вываливать google все как есть ?
в гугл отдавайте только страницы посадки - товары, категории, сео страницы фильтра, статьи, рубрики итп.
генераторы Sitemap делают большие файлы,
не пользуйтесь никакими генераторами сайтмапов... нужно самому ручками программировать генерацию сайтмапов по заданию крона... регулярно их обновляя ...
генераторы Sitemap делают большие файлы, в которых много "мусора" - страницы с Page=X, Tag=X, и.т.п.
Генераторы фиксируют все страницы, до которых фактически могут дотянуться и не действуют явные запреты.
Я обычно такие страницы удаляю, но решил посоветоваться, может не надо этого делать, просто вываливать google все как есть ?
Как выше правильно сказал Vladimir SEO (я немного расширю) правила обходами поисковыми роботами и индексации изначально задают при проектировании (что является частью технического оптимизации).
Дальше программируется логика генерации XML карт(ы), чтобы разного рода служебные страницы (ненужные для обхода ПС) не помещалишь в XML карту. На выходе - CMS-а генерирует уже более корректную карту.
В случае различных онлайн генераторов такой возможности нет, генератор поместит в XML карту всё, что найдет.
Как вариант вы можете использовать Screaming Frog, выполнить необходимые настройки, просканировать свой сайт и сгенерировать более корректную XML карту. Когда нет возможности решить этот вопрос через CMS-ку, я бы пошёл именно по этому пути.
Как вариант вы можете использовать Screaming Frog, выполнить необходимые настройки, просканировать свой сайт и сгенерировать более корректную XML карту.
ага, и заниматься этим каждую неделю вручную...
никакого времени не хватит такой фигнёй страдать..
ага, и заниматься этим каждую неделю вручную...
Чтобы не заниматься этим вручную, есть CMS.
Хотя даже если и вручную, настроил проект в Frog-e, сохранил, свернул, потом одной кнопкой - переобход, другой генерация новой карты. Не сложно совсем.
никакого времени не хватит такой фигнёй страдать..
Да, какие там страдания, будет вам.
Да, какие там страдания, будет вам.
ну, если в Вашем ведении, всего один сайт - флажок Вам в руки... вручную сайтмапы создавать через разные приблуды.. заливать их и т.д. по кругу ежедневно или хотя бы еженедельно... не знаю как часто пополняются и изменяются информационные базы у людей..
Чтобы не заниматься этим вручную, есть CMS.
.... существуют программисты... и выполнение заданий через cron ...
а не CMS
ну, если в Вашем ведении, всего один сайт - флажок Вам в руки... вручную сайтмапы создавать через разные приблуды.. заливать их и т.д. по кругу ежедневно или хотя бы еженедельно... не знаю как часто пополняются и изменяются информационные базы у людей..
В моём ведении в настоящий момент 5 сайтов (в стадии активной работы), бывает даже меньше бывает и больше, но как правило больше 7-ми не бывает. На всех работает проф. команда и программисты, которым я ставлю задачи, следовательно, XML карта генерируется автоматически.
В данном случае (описанном TC) скорее всего речь идёт о ручной генерации (потому что в стартовом посте была речь про сервисы по генерации карты), следовательно, сервис я предлагаю заменить десктопной программой. Что не так?
.... существуют программисты... и выполнение заданий через cron ...
Верно. И я как раз начал с того, что, цитирую: ".. программируется логика генерации XML карт(ы), чтобы разного рода служебные страницы.. " и далее по тексту.
Делается это в рабочей связке с программистами. Но очевидно же 😉
Зачем же из поста выхватывать лишь последний абзац и комментировать его в отрыве от всего контекста 😉
а не CMS
Есть варианты, когда CMS генерирует автоматически, когда карта небольшая.
Да и когда большая, управление генерацией карты может быть через CMS в отложенном режиме.
На всех работает проф. команда и программисты, которым я ставлю задачи, следовательно, XML карта генерируется автоматически.
что и требовалось доказать... изначально утверждавшемуся...
не пользуйтесь никакими генераторами сайтмапов... нужно самому ручками программировать генерацию сайтмапов по заданию крона... регулярно их обновляя ...
или по событию, удалил/изменил/добавил страницу - карта обновилась автоматом. У меня на одном была еще тема, при добавлении нового коммента тоже обновлялась…