- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
есть страница со списком моих друзей http://moisait.ru/myfriends.php
она содержит уникальный контент - список моих друзей.
Однако есть еще ряд похожих страниц, например
http://moisait.ru/myfriends.php?=sort1
http://moisait.ru/myfriends.php?=sortname
которые содержат тот же список друзей, но сортированный в другом порядке. То есть контент дублируется, а урлы разные. Результат - все страницы с друзьями в яндексе идут нах. В лучше случае по запросу "мои друзья" выдается главная страница, а все страницы с друзьями сидят в "Еще с сайта"...
вопрос: как оставить для индексации страницу http://moisait.ru/myfriends.php, при этом закрыть от индексации все другие страницы вида http://moisait.ru/myfriends.php?=sort ...
поможет ли метатег - robots=noindex nofollow в теле страницы с дубл контентом.?
вобще посоветуйте что делать с этой бедой.
в файле роботс пропишите запрет тех страниц/разделов, которые не должны попадать в индекс (и роботы не будут туда ходить). поюзайте поиск по форуму, тут много раз писали, что и как делать. :)
если страница одна-две и их можно редактировать вручную, то в метатегах в хеде также можно прописать строчку для все роботов, типа : <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
> в файле роботс пропишите запрет тех страниц/разделов
я знаю как закрыть папку, но как закрыть тысячи разных страниц с урлами вида
mypage.php?variant=1 и при этом оставить страницу mypage.php в индексе?
>то в метатегах в хеде также можно прописать строчку для все роботов, типа : <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
Если я проставлю во всех страницах которые дублируются содержимым такие теги в хеде - это на 100% гарантирует НЕИНДЕКСАЦИЮ таких страниц? Допустим если кто-то поставит внешнюю ссылку? Все равно будет все ок?
Ignat23, можно запретить в robots.txt индексацию страниц по маске...
например строчка
Disallow: /mypage.php?variant
запретит индексацию всех страниц начинающихся на mypage.php?variant, но оставит разрешенными mypage.php, mypage2.php, mypage.php?var=2 и тд
Идут нах не поэтому, но дубли надо убирать.
Лучше всего через robots.txt, как уже неоднократно сказано выше. А если есть возможность убрать ПРОГРАММНО дубли через CMS, то лучше сделать через CMS
спасибо за ответы. но админка сделана так, что мне гораздо проще напихать в тайтлы тег <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW"> - но вроде говорят, что поисковики не очень к нему относятся, когда он на многих страницах натыкан...
кто может про это взвешенно объяснить?
> А если есть возможность убрать ПРОГРАММНО дубли через CMS, то лучше сделать через CMS
Это как? я не понял. чтобы вообще не было дублей? Увы дублей избежать нельзя. Контент сортируется по многим параметрам, и на разных страницах.
кто0нибудь из профиков может дать толковый совет?