pucshkin

Рейтинг
64
Регистрация
03.08.2010

Яндекс не обещал, что если снимать ссылки, то будет положительный эффект. Если на сайте много покупных ссылок, то от их снятия не будет плюс. Если бы так было, то все просто сняли бы ссылки и жили в шоколаде. И тогда смысла от этого алгоритма не было бы. Если сайт качественный, то поможет снятие ссылок, а если ГС, то можно и не снимать ИМХО, смысла не будет.

Ведь яндекс вводит алгоритм чтобы улучшить качество результата поиска, а если после снятия ссылок он будет ранжировать так же, то это вообще херня.

The WishMaster:
Я б закрыл.

Мне не интересно сравнивать все "ЗА" и "ПРОТИВ", хотелось бы аргументы услышать. Например, я бы закрыл, потому что...................

Не факт, что прямого вхождения достаточно, в некоторых случаях это даже минус. ПС любят не прямое вхождение в дискрипшн, а синонимы. Кроме того, польза описания зависит от микроразметки.

Ладно, с понятием дубли все понятно. Возвращаюсь к начальному вопросу, нужно ли закрывать метки в роботс, учитывая то, что на странице с метками будет только название статей, то есть ни анонсов ни изображений.

Это все понятно, что считается дублями. Но ПС на сегодняшний день очень умные и они знают как разделять основной контент и анонсы. Разве я не прав?

На какииииииииииииииииих других страницах, вы о чем. Я же написал у каждой статьи уникальный урл.

Вообще давайте поговорим о дублях.

Что это такое?

На сколько я понимаю дубли - это контент, который доступен по нескольким ссылкам. Можно частично считать дублями контент в анонсах статей, которой может выводится на нескольких страницах, например, главная, категории, теги, архивы если кто-то не закрыл и тому подобное. Это мое мнение, хочется услышать другие рассуждения.

Попробуйте Jetpack

Ладно, тогда по другому задам вопрос.

То что метки на некоторых сайтах необходимы, это понятно, пользователям удобнее ориентироваться на сайте.

Вопрос в следующем:Стоит ли закрывать метки в роботс? На сколько я понимаю, то дублей не будет.

И вообще вопрос, что кто считает дублями? Если контент доступен по нескольким урлам, то это я понимаю минус, но если по каждому урлу уникальный контент. А если дублями считать, что на страницах главной, категориях, метках, архивах, поиска одинаковый анонс то я не думаю, что ПС будут пессимизировать из-за этого. Это конечно мое мнение, которое пришло после анализа многих сайтов, я сейчас не имею ввиду сайты с десятилетним возрастом и однодневки, которые попали случайно из-за переспама ключей.

Alex_sb:
Друзья, подскажите кто в курсе, если я на сайте публикую цитаты с тегом /quote с других сайтов, как в этом случае ПС индексирует данный текст, он будет считаться неуникальным и ПС будут понижать мой сайт в выдаче или всё же есть какие-то исключения в этом случае?

Если цитата с авторитетного ресурса или автора, то будет только плюс. ИМХО

Замечено, что даже ссылки на крупные и авторитетные сайты оказывают положительное влияние.

Всего: 91