- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как известно, многие страницы (тэги, архивы) в том же вордпрессе закрываются от поисковиков для того, чтобы они не скушали дубли на сайте, которые вроде как вредят. Такой вопрос: дубль - это полностью идентичная страница?
Другими словами:
если есть страница, которая наполовину состоит из уникального контента и наполовину из неуникального (скопированного с этого же сайта статья, скажем) - это будет считаться дублем? Такого лучше не допускать?
Можно не закрывать.
Дубль, это если 1 страница доступна по разным адресам. К примеру site.ru и site.ru/ - некоторые движки очень много копий плодят. В сумме бывает что поисковик хавает не ту страницу которая продвигается и на которую нужен трафик, а её дубль. И зараза съел дубль, а то что надо индексировать не хочет, поэтому служебные и всякие там теги, результаты поиска - закрывают от индексации, чтобы ускорить индексацию того что надо.
Т.е. если, к примеру, есть раздел на сайте, который укомплектован сео-статьей ради траффика. Находится этот текст в сайдбаре. И этот же текст в этом же сайдбаре выводится при просмотре публикаций этого раздела.
Не возникнет ли ситуация, что "трафф" будет идти не на главную страницу раздела, а на какую-то из публикаций этого раздела? :)
Может. Поэтому если анонс - выводить только неск предложений, не весь текст.
untee, из справки гугла
Повторяющийся контент
Повторяющимся контентом обычно называют большие блоки информации в рамках одного или нескольких доменов, контент которых либо полностью совпадает, либо почти не отличается.
Вред дублированного контента выражается в том что наиболее релевантная страница (с тайтлом, h1 заголовком, ключевиками, разбросанными по тексту) не показывается в выдаче. А вместо нее, по интересующему вас запросу в выдаче поисковик показывает совсем другую страницу вашего сайта (с иным тайтлом, заголовком и текстом). В результате позиция вашего сайта по данному запросу оказывается ниже, чем если бы это была релевантная страница. :)
Вред дублированного контента выражается в том что наиболее релевантная страница (с тайтлом, h1 заголовком, ключевиками, разбросанными по тексту) не показывается в выдаче. А вместо нее, по интересующему вас запросу в выдаче поисковик показывает совсем другую страницу вашего сайта (с иным тайтлом, заголовком и текстом). В результате позиция вашего сайта по данному запросу оказывается ниже, чем если бы это была релевантная страница. :)
Это не из-за дублей такое бывает - это называется фильтр "ты спамный" из-за переоптимизации страницы ключами. Дубли влияют только на то что не та копия будет в индексе. Скажем site.ru/avto/ и site.ru/avto/avto.html - оригинальная вторая, а поисковик проиндексирует первую.
если есть страница, которая наполовину состоит из уникального контента и наполовину из неуникального (скопированного с этого же сайта статья, скажем) - это будет считаться дублем? Такого лучше не допускать?
Дубли бывают:
- полные
- нечеткие
Про полные дубли Вам рассказали, это когда контент на разных старницах одинаковый (в рамках только Вашего сайта, а так же в рамках сети Интернет)
Нечеткие дубли - это когда контент частитчно дублируется. Как вариант надран из кусков, вязтых с других страниц
Просвещайтесь:
http://yandex.ru/yandsearch?clid=9582&text=%D0%BF%D0%BE%D0%B8%D1%81%D0%BA+%D0%BD%D0%B5%D1%87%D0%B5%D1%82%D0%BA%D0%B8%D1%85+%D0%B4%D1%83%D0%B1%D0%BB%D0%B8%D0%BA%D0%B0%D1%82%D0%BE%D0%B2&lr=213
Да, а наказание за это АГС и Панда (Яндекс и Гугл, соответственно), которые сводят на нет все телодвижения по продвижению.
Это не из-за дублей такое бывает - это называется фильтр "ты спамный" из-за переоптимизации страницы ключами. Дубли влияют только на то что не та копия будет в индексе. Скажем site.ru/avto/ и site.ru/avto/avto.html - оригинальная вторая, а поисковик проиндексирует первую.
Я бы с вами согласился, если бы не практика: При закрытии, например меню в noindeх, нерелевантная страница прекращала выдаваться в выдаче и вместо нее по интересующему запросу появлялась релевантная. 😕
---------- Добавлено 14.10.2012 в 01:03 ----------
Нечеткие дубли - это когда контент частитчно дублируется. Как вариант надран из кусков, вязтых с других страниц
Вот, как вариант надран из разных сайтов, очень хорошо сидит в индексе и годен для создания мфа и гс-ов. 🍾
Я бы с вами согласился, если бы не практика: При закрытии, например меню в noindeх, нерелевантная страница прекращала выдаваться в выдаче и вместо нее по интересующему запросу появлялась релевантная. 😕
Это говорит только о том, что в анкорах меню - содержались ключевые слова - убрав их из индекса вы снизили данной спамность страницы. Также бывает что объём текста в меню, намного превышает объём текста на странице - но поисковики уже давно умеют определять шаблон сайта и не учитывать его.
Как известно, многие страницы (тэги, архивы) в том же вордпрессе закрываются от поисковиков для того, чтобы они не скушали дубли на сайте, которые вроде как вредят. Такой вопрос: дубль - это полностью идентичная страница?
Другими словами:
если есть страница, которая наполовину состоит из уникального контента и наполовину из неуникального (скопированного с этого же сайта статья, скажем) - это будет считаться дублем? Такого лучше не допускать?
Есть понятие четкие и нечеткие дубли, так вот страницы доступные по двум разным адресам но с одинаковым контентом это четкие дубли. А нечеткие это предположим страницы где контента мало а основную длю кконтента составляет сквозное меню и прочие сквозные блоки в итоге это становится нечетким дублем. Насчет если на странице уник и неуник, знаете как карточку товара которая слизана с другого сделать уникальной? Добавьте туда отзывы и контента на странице станет больше уникального и все будеть ок