- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Исходные данные:
Сайт с где-то полулярдом страниц. Ну, скажем так, некая онлайн библиотека всякой технической ереси. Причем не кал, а действительно СДЛ, но очень низкочастотный.
Количество документов постоянно растёт.
Документы многостраничные и разбиты урлами на page=2 .. page=N в зависимости от количества страниц.
Первая страница не имеет своего 'page' идентификатора, но имеет, как и все остальные страницы одного документа, ссылки на остальные страницы того же документа. Чтобы пользователь мог перемещаться между страницами.
В данный момент, в сайтмэпе указаны только первые страницы каждого документа в надежде на то, что Гугл поймет и просканирует остальные страницы того же документа, не указанные в сайтмэпе, но имеющие ссылки с первой страницы.
В данный момент, анализ логов показывает, что вхождение гуглобота в 90% случаев идёт на первую страницу документа. И только в 5% на остальные страницы. Ещё 5% на внутреннюю навигацию.
Изначально кажется, что надо указать все, но имея многолетний опыт засовывания в Гугл тяжёлых сайтов, понимаю, что можно убить сайт, скармливая боту тоннами контент, нужный только ограниченному кругу людей.
Собственно вопрос - имеет ли смысл указывать сайтмэпе все страницы документа?
Вернее не так. Не является ли сайтмэп, в данном случае, помехой в принципе?
Т.е. воспринимает ли гугл страницы, не указанные в сайтмэпе, как полноценные страницы и вообще, воспринимает ли их?
Почитайте про rel="next" rel="prev" это метатеги указания для бота что есть пагинация. Как вариант, можно указать в консоли роботу что параметр пайдж в урле, это разбиение на страницы.
Про rel почитаю. Спасибо.
В вмт пэйдж очень коварная и непонятная штука.
То ли она режет уже имеющийся документ на части(при наличии полной версии документа на отдельной странице), то ли работает так, как хотелось бы. Типа, указал первую страницу, а остальные суть есть паджинация...
У пэйдж резателя есть примеры где робот их нашел. Посмотрите какие именно, и ставьте на нужных. Почитайте про каноникал в хелпе гугла. В случае порезки на части страницы статьи(для пагинации категорий другое), и наличии полной версии страницы, надо его ставить.
Документы многостраничные и разбиты урлами на page ...
...
В данный момент, в сайтмэпе указаны только первые страницы каждого документа ...
Так и оставьте если это один многостраничный документ.
Я еще обычно вывожу:
<META NAME="ROBOTS" CONTENT="INDEX, NOFOLLOW"> if current_page_number > 3..5
Но это, зависит от того как у вас сделана внутренняя перелинковка. В вашем случае подойдет.