- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Проверил свой сайт одним из автоматических сервисов и этот сервис нашел дубли, которые визуально я не заметил. Эти дубли рождаются постраничной навигацией и имеют такой вид:
www.site.ru/str/
www.site.ru/str/page=1/
Влезть в сам механизм CMS в улучшить его довольно сложно. Но и иметь дубли страниц тоже нехорошо!
Можно ли как-то выйти из этой ситуации?
модифицировать htaccess
301 редирект выставить
Если у них стоит canonical url - то думаю никакой беды нет.
В robots.txt дописать строку:
Disallow: */page=*
Что выкинет из индекса все эти страницы.
А если вопрос в том, что нужно сохранить их в индексе, но убрать дубли, то нужно для каждой из страниц page=1, page=2, page=3 ... прописать уникальный статичный текст. ИМХО в таком варианте геморроя гораздо больше и не вижу смысла это делать.
Disallow: */page=*
Спасибо, идея хорошая, да только есть одно "но": запрещенные в robots.txt страницы останутся в sitemap.
Но ведь это тоже плохо?
Спасибо, идея хорошая, да только есть одно "но": запрещенные в robots.txt страницы останутся в sitemap.
Но ведь это тоже плохо?
По сути это будут взаимоисключающие условия, конфликт понятий. По сути сайтмап говорит, что индексировать, а роботс - наоборот запрещает.
Да и вообще я так смотрю - у вас всё неправильно. В сайтмапе должны быть основные страницы сайта, даже можно без категорий. Неудели нельзя сайтмап редактировать? Какая у вас CMS?
---------- Добавлено 28.07.2014 в 15:12 ----------
Если в сайтмапе появятся запрещенные к индексации урлы - в панелях вебмастера будут сообщения об ошибках, что какбэ намекаэ, что так лучше не делать
В сайтмапе должны быть основные страницы сайта
Вы хотите сказать, что не обязательно включать в сайтемап ВСЕ страницы? Достаточно только основных?
НОSТCMS
Вы хотите сказать, что не обязательно включать в сайтемап ВСЕ страницы? Достаточно только основных?
Большинство CMS позволяют указывать, какие страницы не индексировать.
Поделитесь сервисом, можно в личку
А если вопрос в том, что нужно сохранить их в индексе, но убрать дубли, то нужно для каждой из страниц page=1, page=2, page=3 ... прописать уникальный статичный текст.
Или убрать одинаковый текст (от ПС, а не от ползателя). Хватит разного текста ссылок.
/ru/forum/development/web
/ru/forum/development/web
/ru/forum/development/web
ТС не знает, нужны ему в индексе страницы со ссылками на много-страниц или нет.
И ещё он не знает, что ... добавление одной новой ссылки на первой странице меняет содержимое всех страниц *&page=* что заставляет бота их опять переиндексить (а делать это им не очень хочется, поскольку изменения минимальны). Такая структура сцайта не облегчает жизнь поисковиков, значит они могут облегчить её сами, пожертвовав неудобным для себя сцайтом.
богоносец, Вы дали очень интересный пример! Вот смотрите - ситуация такая же, как у меня:
/ru/forum/development/web
/ru/forum/development/web
/ru/forum/development/web
Контент везде одинаковый, а адреса страниц разные!