- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Помогите пожалуйста в борьбе с дублями.
Есть сайт и много, много дублей такого вида:
http://domain.com/hip-hop/page_2
http://domain.com/hip-hop/page_3
http://domain.com/hip-hop/page_4
...
на первой и на всех последующих страницах все кроме контента одинаковое, т.е. тайтлы, дески и тд..
гугл на них ругается, прислав мне письмо в вебмастер-тулс.
1. Нужно закрыть все последующие страницы кроме первой?
2. Как быть с дублями которые уже в индексе? их уже 100к+ набралось
В свете зверствования панды, я их закрыл. Ищу причины кто виноват. Закрыл через noindex, follow. Там конечно же не 100к, а 1-2к было. Потихоньку выбрасывает из индекса.
Можно закрыть через роботс.тхт(будет быстро), что-то на подобии "hip-hop/page_" в случае если hip-hop - первая. Но мне кажется это не вариант, так как страницы вовсе вылетят и робот не будет ходить по линкам с этих страниц.
Я остановился на первом варианте через noindex в хедерах.
ну так думаю, мне и нужно их вообще закрыть, так как гугл ругаеться с таким текстом:
Робот Googlebot обнаружил чрезвычайно большое количество ссылок на вашем сайте. Это может свидетельствовать о проблеме, связанной со структурой URL-адресов сайта. Возможно, робот Googlebot без необходимости сканирует большое количество различных URL, указывающих на идентичное или похожее содержание, либо сканирует разделы сайта, не требующие сканирования. В результате робот Googlebot может потреблять гораздо больше ресурсов канала передачи данных, чем необходимо. Кроме того, есть вероятность, что он не сможет полностью просканировать все содержание сайта.
sigiziy добавил 22.11.2011 в 10:32
ну так как правильнее закрыть: все страницы кроме первых?
помогите пожалуйста...