Aurora

Рейтинг
55
Регистрация
15.04.2008
TF-Studio:
А зачем вы хотите их закрыть?
Давайте вопрос с начала рассмотрим

Имеем сайт-каталог, структура которого предполагает следующее: посетитель заходит на сайт, выбирает нужную категорию, например, "Санкерамика", заходит на страницу, и видит не каталог с карточккми товара, а каталог со ссылками на сайты производителей товара. Подразделов много и ссылок исходящих тоже не мало. Даже с учетом наличия "no follow" вес ссылок может и не утекает (что сомнительно), но они все равно прекрасно индексируются. В общей сложности проиндексировано 186 страниц (в google), а исходящих внешних ссылок - 2118.

Есть основания предполагать, что это негативно отражается на трасте сайта и его позициях.

87793:
Я полагаю, что вряд ли превалирование исходящих ссылок над входящими приведёт к пессимизации :o.

Ну, наверное, может привести, смотря на какие сайты ссылается донор. Но вы правы, мой сайт не линкопомойка, поэтому волноваться нет причин.:)

bober:
1. Самое правильное - исключить появление дублей на уровне движка (если это конечно возможно)
2. Если не первое, то исключить наличие внутренних ссылок на дублированный контент.
3. Редирект 301 дублей на оригиналы - в джумла это может быть нетривиальная задача .
Насчет безполезности роботса уже говорено 100500 раз. Если кто не знает - огорчу насчет мета noindex nofollow -увы, не работает также. Проверял лично: на одном из своих сайтов сделал страницу, имеющую при создании эти мета, со ссылками на другие свои сайты, и очень скоро увидел эти ссылки среди входящих в GWT сайтов-реципиентов.

Хм...прочекала внутренние ссылки на дубли, получилась такая картина: генерируемые дубли ссылаются на дубли же, например:

site.ru/orderDesc/results,41-40?filter_product=

на эту страницу ссылаются страницы типа:

site.ru/results,41-40

site.ru/results,41-40?filter_product=

site.ru/?start=40

т.е. тоже дубли, генерируемые cms-кой (пока не понимаю, по какому принципу (пагинации нет), может только посредством формы поиска.

На счет редиректа - поспрашиваю у программистов. Думаю, может попробовать rel canonical.

Osan:
А Вы не хотите попробовать добавить в роботс:


Как по мне синтаксис не правильный:

Не сильна в синтаксисах, составляла robots, ориентируясь на яндекс вебмастер.

Спасибо за дельную подсказку, отлично решился запрет индексации без лишних строк.

Osan:
Вообще, я бы рекомендовал отрегулировать все ссылки на плохие адреса - уходит вес со страницы, никакой пользы

Соглашусь на тысячу процентов, вот, разбираюсь, как оптимально решить вопрос в джумле.

P.S. да, site.ru//sankeramika - это опечатка:)

divv:
Яндекс тоже реагирует на этот метатег


или для яндекса можно отдельное правило сделать в роботсе

User-agent: Yandex

Спасибо, схема понятная и оптимальная. Воспользуюсь.

Спасибо, изучила эти доки. И тогда встречный вопрос: вставив код с noindex для каждой дублирующей страницы, нужно, соответственно, убрать запреты на индексацию в файле robots.txt. В результате google должен отреагировать, а яндекс?

С учетом того, что карточки товаров отсутствуют, поэтому контента явно не хватает, плюс превалирование исходящих ссылок над входящими....Мне кажется, это фактор для пессимизации.

---------- Добавлено 04.06.2015 в 12:22 ----------

Хотелось бы услышать мнение людей, которые сталкивались с подобной ситуацией со своими интернет-проектами.

Спасибо за ответы)

---------- Добавлено 04.06.2015 в 12:47 ----------

Likana:
Либо сделайте открытый редирект, либо вообще не закрывайте. Если сайты трастовые, то вам не стоит переживать по этому поводу.

Да, ссылки только на сайты-производители.

Есть еще один нюанс с этим проектом, описанный здесь: /ru/forum/898696 в результате, по данным linkpad, исходящих ссылок 2118, с учетом, что количество полезных страниц каталога - 50. И это проблема, я думаю.

kostyanet:
По-моему гуглю глубоко фиолетовы все эти рекомендации ведущих яндексоидов насчет роботов, сайтмапс и прочей древней лабуды....

Есессно, гугл клал на яндекс:D Однако это не отменяет политики самого google, который жестко наказывает за допущенные огрехи.

kostyanet:
Говорят что только особые метатеги могут упросить гугль не индексировать страницу.

А можно с этого места поподробнее? Речь идет о meta robots в коде html страниц?

Никто не в курсе, насколько эффективен плагин Joomla Simple Redirect?

Posting_i_PIAR:
Есть такая особенность. Я список опорных слов для парсинга отдельно добавляю и проблема решена.

Та же самая проблема, спасибо за подсказку.

Подскажите, пожалуйста, как работает "Быстрый фильтр", для чего он?

12 3
Всего: 23