- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
По идее надо закрывать теги и категории в robots.txt, чтобы не было дублирования контента. Но ведь на странице определенного тега и определенной категории разные посты, т.е. эти страницы не являются дублем какому-либо другому контенту (дублем является только часть каждой из этих страниц, а именно краткий анонс поста).
К тому страницы категорий и тегов-это дополнительный контент, релевантный другим запросам, нежели отдельные посты, т.е. это дает дополнительный трафик.
В итоге: надо или нет закрывать теги и категории в robots.txt?
P.S. Это не для сапы, на сайте вообще не стоит коды бирж, просто хочется понять как правильно делать и что же такое дублирование контента в понимании поисковых систем.
Думаю, что для ПС они будут дублями, т.к. каждая из статей тега уже уникальная для ПС и проиндексирована ей, а найденные по тегу страницы лишь их комбинация.
Имхо нужно делать для людей и их удобства, а если это расходиться с правилами ПС, то закрывать от индексации.
Если не хочется закрывать теги и категории, можно сделать так. Правда, придется писать по несколько анонсов на статью.
Думаю, что для ПС они будут дублями, т.к. каждая из статей тега уже уникальная для ПС и проиндексирована ей, а найденные по тегу страницы лишь их комбинация.
Имхо нужно делать для людей и их удобства, а если это расходиться с правилами ПС, то закрывать от индексации.
Тогда для ПС пути к страницам остается делать только за счет некой карты сайта? Ведь не выведешь же на главной все посты.
где-то читал что гугл пихает найденные им дубли сразу в суплемент выдачи, влияет ли это как-то негативно на сайт?
Тогда для ПС пути к страницам остается делать только за счет некой карты сайта? Ведь не выведешь же на главной все посты.
Можно обойтись без карты, если на сайте есть категории по которым расфасованы все эти статьи. И все эти категории доступны с главной страницы сайта через главное меню например.
Т.е. ПС пройдется по категориям, и уже внутри каждой категории найдет все статьи :)
Конечно тексты анонсов статей в каждой категории закрываются в ноуиндекс (иначе будут дубли), оставляем для индексации только ссылку на полную статью.
В основном использую такую схему, сайты на ДЛЕ
edka добавил 23.02.2011 в 22:21
Если не хочется закрывать теги и категории, можно сделать так. Правда, придется писать по несколько анонсов на статью.
Мое мнение: текст каждого анонса, если у этого анонса со временем может измениться урл (например опубликовали на главной, со временем анонс уползает на 2,3 и т.д. страницы) нужно закрывать в ноуиндекс, чтобы у каждой новости был только один уникальный урл, по которому она расположена постоянно.
Тоже искал ответ на этот вопрос, просмотрел множество Seo блогов, и везде по разному, где закрыты, а где и открыты и у многих сеошников разные мнения по этому поводу, некоторые даже пишут о том как это плохо (дублированный контент) и т.д. и т.п. а у самих все открыто для индексации. Вообщем остановился я на том, что оставил только категории для индексации, метки и page закрыл...
Писать несколько анонсов, конечно, муторно и это не путь настоящих джедаев) Приходит мысль, что надо закрывать теги, а в категориях тогда закрывать анонсы в ноиндекс.
С другой стороны если писать уникальные анонсы (в поле "Цитата") и выводить на страницах рубрик через excerpt, тогда дубль будет только на главной и на страницах категорий, и то не на всех.
Запрещаю индексацию тэгов и прочего не нужного в роботсе, категории не запрещаю, так же использую плагин All in One SEO Pack
Напрашивается вопрос: движок wordpress используется в миллионных тиражах на различных сайтах по всему миру. Создатели этого движка, по моему мнению, при разработке учитывают особенности поисковых систем, но при этом, уже спустя годы работы, до сих пор не закрывают в своих релизах тегами <noindex> ни метки, ни архивы и т.п. Ведь это не с проста? ;)
Создатели этого движка, по моему мнению, при разработке учитывают особенности поисковых систем, но при этом, уже спустя годы работы, до сих пор не закрывают в своих релизах тегами <noindex> ни метки, ни архивы и т.п. Ведь это не с проста?
Создателей этого движка волнует забугорный Яндекс?