- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Убирать ли дубли и как лучше
Дубли зло, с этим не спорю.
Есть на сайте нормативно-справочная информация – это естественно дубликаты, которых в сети полно. Их кол-во на сайте мало, но все же есть желание и их закрыть в noindex, дабы стремиться к идеалу :) , тем более, что в выдаче они где-то на 30 местах.
Собственно вопросы:
1) нормально ли закрывать от индексации уже старые страницы, на которые есть внешние проиндексированные ПС ссылки (ссылки не покупные: с форумов и т.п.), т.е. эти ссылки теперь вообще перестанут приносить даже мизерную пользу?
2) в контенте самого сайта, также есть контекстные ссылки на эти нормативные документы, их нужно убрать?
Noindex собираюсь прописывать как метатег, совместно с follow в самих статьях
я убрал дубли с помощью 301 редиректа в htaccess
просто закрывать от индексации старые страницы как по мне не очень хорошо, тем более если на них есть ссылки
imanager, пожалуйста, обнародуйте код (если не секрет). Не так давно потерял уйму времени по этому вопросу, но кроме минуса в репу так ничего и не приобрёл...
Нарыл кое-как инфу, но не уверен, что она верна.
я убрал дубли с помощью 301 редиректа в htaccess
просто закрывать от индексации старые страницы как по мне не очень хорошо, тем более если на них есть ссылки
Дубли лучше убрать.
А вот зачем вы старые страницы закрыли?.. :)
я убрал дубли с помощью 301 редиректа в htaccess
просто закрывать от индексации старые страницы как по мне не очень хорошо, тем более если на них есть ссылки
Причем здесь 301 редирект, если страницы останутся для пользователей, а уберутся лишь для ПС. Это же не дули контента самого сайта, а нормативно-справочная информация (законы, постановления и т.п.), которая дублирует контент уже публиковавшийся в сети на более авторитетных сайтах.
Вопрос именно о закрытии страниц от поисковиков с их сохранением для пользователей, и про оставшиеся внешние ссылки.
---------- Добавлено в 12:26 ---------- Предыдущее сообщение было в 12:22 ----------
Дубли лучше убрать.
А вот зачем вы старые страницы закрыли?.. :)
Убирать буду.
Цель - это улучшения индексации сайта ПС, т.е. убирание мусора, который не надо индексировать, но робот же опять будет пытаться ходить по тем закрытым станицам, если на них есть и скорее всего еще появятся ссылки. Как с этим?