Стоит ли закрывать Page в robots на DLE

FreakMurderer
На сайте с 07.09.2011
Offline
13
1922

Помогите пожалуйста решить вопрос, который никак не дает покоя. Перерыл полинтернета и все никак не определюсь, поэтому отнеситесь пожалуйста снисходительно.

Стоит ли закрывать страницы в robots.txt на DLE.

Если да, объясните пожалуйста почему, если нет - тоже.

Для себя я думаю, что наверное все таки не стоит, так как каким же образом ПС будет индексировать ссылки, ведущие на полные новости, если я буду обязательно закрывать всякие календари и прочие.

Sitemap - пока не в счет, хотелось бы услышать ответ без нее ... ?

Fr3d
На сайте с 29.05.2008
Offline
86
#1

у меня на всех страницах с дублями выводится meta noindex - на всех страницах категорий, на страницах навигации /page/ и т.д.

есть две карты сайта - html и xml, с индексацией нет проблем

Webmoney кредиты - это WMCoin.ru (http://wmcoin.ru)
Дмитрий Удимов
На сайте с 05.05.2010
Offline
274
#2

у меня на всех сайтах закрыты в robots. Нафиг они нужны то, уникального контента все равно нет на них

Топвизор — аккредитованный регистратор доменов .ru и .рф (https://topvisor.com/ru/domain-registration/) — честная цена 299 руб. за регистрацию и продление.
FreakMurderer
На сайте с 07.09.2011
Offline
13
#3

Ну а как ПС будет индексировать полные новости, если к ним он попросту не дойдет ?

Допустим, что нет карты сайта (гипотетически)

FreakMurderer
На сайте с 07.09.2011
Offline
13
#4

Пожалуйста, ответьте стоит ли все таки запрещать PAGE ? И объясните почему...

Mr.Smile
На сайте с 10.01.2011
Offline
65
#5
FreakMurderer:
И объясните почему...

Большое дублирование страниц внутри сайта - один из факторов АГС.

FreakMurderer:
Ну а как ПС будет индексировать полные новости

Карта сайта в помощь.

P. S. - Архив и теги тоже не лишним будет закрыть.

<--TTT-->
FreakMurderer
На сайте с 07.09.2011
Offline
13
#6
Mr.Smile:
Большое дублирование страниц внутри сайта - один из факторов АГС.


Карта сайта в помощь.

P. S. - Архив и теги тоже не лишним будет закрыть.

Спасибо, наверное все таки закрою ))

Архив закрыл и через роботс и через <meta name="robots" content="noindex" />

Теги закрыл через роботс только...

Кто бы подсказал, также как теги закрыть через <meta name="robots" content="noindex" />. Ну и пейджи тоже...

Имеется ввиду, где и что нужно изменить в PHP, как было изменено для архивов (DLE 9.3)

Дмитрий Удимов
На сайте с 05.05.2010
Offline
274
#7
FreakMurderer:
Ну а как ПС будет индексировать полные новости, если к ним он попросту не дойдет ?
Допустим, что нет карты сайта (гипотетически)

Не вижу никакой проблемы. Робот пройдется по всем ссылкам, просто не будет включать в индекс запрещенные вами страницы

R5
На сайте с 10.09.2010
Offline
13
#8

Могу ошибаться, но в новом движке 9.3 разработчиками реализован редирект с дублей страниц. В админке настраивается. Таким образом проблема дублей не решается ?

FreakMurderer
На сайте с 07.09.2011
Offline
13
#9
ram555:
Могу ошибаться, но в новом движке 9.3 разработчиками реализован редирект с дублей страниц. В админке настраивается. Таким образом проблема дублей не решается ?

Да верно, дубли страниц я уже давно закрыл.

WebAlt
На сайте с 02.12.2007
Offline
266
#10
ram555:
Могу ошибаться, но в новом движке 9.3 разработчиками реализован редирект с дублей страниц. В админке настраивается. Таким образом проблема дублей не решается ?

Решается:

При включении данной опции, будет происходить проверка адреса новостей. Например, при отключенной опции, адреса: http://site.ru/id-имя_новости.html и http://site.ru/id-любой_текст.html будут вести на одну и ту же страницу. При включении данной опции, будет осуществляться 301 редирект на верный адрес. Данная опция полезна для SEO и при смене адресов новости.

Т.е раньше можно было забить вместе с id все что угодно в url и новость откроется по этому адресу или переместили новости в другую категорию, а они также были доступны и в старой, и боты спокойно "бегали" везде. Сейчас эту проблему решили на уровне двига, новости открываютя только по заданному адресу, для всего остального редирект. Теперь не нужно заморачиваться с .htaccess и сторонними модулями.

Page, tags, catalog и архивы из другой оперы, достаточно закрыть в роботс или meta noindex поставить, если нужно.

И как заявляет разработчик в v.9.4:

21. Улучшены алгоритмы контроля ЧПУ при проверке адреса URL для просмотра полной новости.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий