- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Чтобы избежать страниц-дублей в индексе поисковика часть _внутренних_ ссылок закрыли в nofollow и noindex.
Насколько я понимаю, поисковики все равно учитывают наличие на странице таких ссылок. Получается, что ссылочный вес попросту теряется.
Если это так, то как поступить лучше?
Чтобы избежать страниц-дублей в индексе поисковика часть _внутренних_ ссылок закрыли в nofollow и noindex.
Не понял. Откуда, по вашему, появятся дубли? Почему не закрыть страницы в роботсе по маске? Какой движок?
Получается, что ссылочный вес попросту теряется
Что вы подразумеваете под "ссылочным весом" и в какой момент он теряется?
Андрей Андреев, убрать лишние ссылки.
Андрей Андреев, убрать лишние ссылки.
Убрать лишние ссылки не получится. Они у нас в основном в хлебных крошках.
У нас на сайте каталог предложений очень глубокий (4 уровня вложенности) + географическая фильтрация.
Хлебные крошки выглядят так:
Сегмент > Подсегмент > Категория > Подкатегория
Россия > Пермский край > Пермь
В итоге имеем много страниц с повторяющимися анонсами товаров. Чтобы избежать дублей, поисковику позволяем работать только с последним уровнем - Подкатегория. Все остальные закрыты для индексации.
Для пользователей ссылки открыты. По ним можно переходить по сайту.
---------- Добавлено 29.01.2015 в 11:49 ----------
Не понял. Откуда, по вашему, появятся дубли? Почему не закрыть страницы в роботсе по маске? Какой движок?
Что вы подразумеваете под "ссылочным весом" и в какой момент он теряется?
Ссылки закрыты и в robots и просто тегом. Так надежнее)
Под потерей "ссылочного веса" я имею ввиду следующее. Допустим на некой странице аккумулируется некий "ссылочный вес", который образуется за счет того, что на нее ссылаются другие страницы.
Эта страница отдает этот "вес" другим внутренним страницам, на которые сама ссылается. Допустим ссылок 10. Однако 2 из них являются закрытыми для поисковика. Отсюда вопрос. Оставшиеся 8 ссылок передают весь "вес" страницы или только 8/10 (а 2/10 уйдут в никуда)?
Андрей Андреев, не теряется, я проводил эксперимент с удалением больше 3000 ноффолов ссылок. На позиции это не повлияло.
Оставшиеся 8 ссылок передают весь "вес" страницы или только 8/10 (а 2/10 уйдут в никуда)?
Уход веса, как вы выразились "в никуда", - есть противоречие логике здравому смыслу.
Если в роботсе лишние категории у вас закрыты, то и вопрос исчерпан. Проследите теперь за тем, чтобы индексируемые страницы каталога не улетели в глубину, а имели минимальную минимальную вложенность. А вообще, сайтец бы показали.
Со страницы вес не уходит вообще (те от кол-ва исходящих ссылок вес самой страницы не меняется). Просто другим ссылкам передастся меньше
(Вес страницы = Вес страницы (условный) + Вес донора / на кол-во исходящих ссылок), те если с 1 страницы идет 10 ссылок на другие, то они получат по 1/10 от веса донора.
Что бы не отдавать вес, ссылки надо закрывать в JS. Noindex и nofollow отдают безанкорный вес, но они его отдают. Noindex вообще применим только для Yandex.
Спасибо за хороший ответ.
---------- Добавлено 29.01.2015 в 17:41 ----------
Уход веса, как вы выразились "в никуда", - есть противоречие логике здравому смыслу.
Если в роботсе лишние категории у вас закрыты, то и вопрос исчерпан. Проследите теперь за тем, чтобы индексируемые страницы каталога не улетели в глубину, а имели минимальную минимальную вложенность. А вообще, сайтец бы показали.
Со страницы вес не уходит вообще (те от кол-ва исходящих ссылок вес самой страницы не меняется). Просто другим ссылкам передастся меньше
(Вес страницы = Вес страницы (условный) + Вес донора / на кол-во исходящих ссылок), те если с 1 страницы идет 10 ссылок на другие, то они получат по 1/10 от веса донора.
Что бы не отдавать вес, ссылки надо закрывать в JS. Noindex и nofollow отдают безанкорный вес, но они его отдают. Noindex вообще применим только для Yandex.
Наверно, я неправильно сформулировал.
Конечно, вес никуда не уходит. Он просто передается новым страницам.
Потенциально, если бы все ссылки были обычными, то страница могла передать свой вес другим внутренним страницам на все 100%.
У меня же подозрения, что если часть внутренних ссылок nofollow, то другим страницами передается не 100%, а 80% от потенциального возможного (для приведенного выше примера). Т.е. другие разделы страницы недополучают то, что могли бы.
У меня же подозрения, что если часть внутренних ссылок nofollow, то другим страницами передается не 100%, а 80% от потенциального возможного (для приведенного выше примера). Т.е. другие разделы страницы недополучают то, что могли бы.
Да. Что бы не отдавать вес, ссылки надо закрывать в JS. Noindex и nofollow отдают безанкорный вес.
Noindex и nofollow отдают безанкорный вес.
Вы второй раз пишете о т.н. "безанкорном весе", который страница отдает через nofollow-ссылки. Откуда такие данные?
Скорее всего это коллективное бессознательное...
Логика с передачей "безанкорного веса" - в общем верна, ибо реципиент скорее всего не получит значение закрытого анкора... а вот будут или не будут учитываться эти анкоры при расчетах спама - вопрос более интересный, хотя в массовых обсуждениях и не замеченный)))
По этой причине и следует закрывать ссылки совсем - выводить их за пределы кода.