- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброй ночи! Сделал на сайте ЧПУ. С старых ссылок что не терять вес, сделал редирект 301 на новые ссылки. Прошел месяц. Через панель вебмастера яндекса и гугла вижу что в индексе теперь и старые и новые страницы. Нужно ли как-то удалять или запрещать к индексации старые ссылки. Получается ведь что это вроде как дубли.
Можно запретить через роботс, хотя ПС через некоторое время сами выкинут старые страницы.
Нужно ли как-то удалять или запрещать к индексации старые ссылки. Получается ведь что это вроде как дубли.
ничего не делайте
если стоит редирект то эти страницы не дубли
Хотите сказать, что если я сделаю 500 копий одной страницы с разными урлам и 301 редирект на одну и туже страницу то все будет норм? А если я еще и ссылок прикуплю на эти страницы, ничего?
Убирайте дубли, конечно. В роботс, например, да.
я бы запретил роботам индексировать старые ссылки, но редирект оставил бы. Если сайт достаточно старый и полезный, то наверняка люди ставили ссылки на него. И что они получат? 404ю ?
И что они получат? 404ю ?
На булке (вбсео) здорово все организовано, автоматический редирект и никаких битых цинков. А если страниц несколько тысяч и руками делать - с ума сойдешь.
Получается идеальный вариант:
1) Оставляем редирект со старых адресов на новые, на тот случай, если где-то стоит ссылка на сайт старого вида
2) Запрещаем в роботсе индексировать старые адреса, чтоб убрать дубли из ПС.
правильно я все понял?
Получается идеальный вариант:
1) Оставляем редирект со старых адресов на новые, на тот случай, если где-то стоит ссылка на сайт старого вида
2) Запрещаем в роботсе индексировать старые адреса, чтоб убрать дубли из ПС.
правильно я все понял?
1 пункта с редиректом должно хватить, роботс по-моему не к чему
1 пункта с редиректом должно хватить, роботс по-моему не к чему
+1
Если стоит редирект средствами веб-сервера (htacceess), то никаких дублей в принципе быть не может, т.к. по старому адресу сервер не отдает саму страницу, а только заголовок: "Status: 301 Moved Permanently"
но в индексе ещё очень долго могут быть дубли ....