Контент+форум=ленивая индексация контента

12
S
На сайте с 31.10.2001
Offline
18
Sys
3544

Вот такая мысль. На моём сайте развлекательной тематики есть основной контент и форум. Форум построен на базе известного движка wwwthreads, который генерирует достаточно большое количество страниц, впрочем как и другие движки.

Всё сильнее и сильнее складывается впечатление, что чем жирее становится форум, тем ленивее яндекс индексирует/переиндексирует основной контент сайта, не любит заходить очень глубоко и т.п.

Яндекс знает документов

всего: 2086

из форума: 1111

следовательно на контент приходится: 975

Важно наличие свежего переиндексированного контента сайта, а не форума.

На ум приходят следующие варианты:

1. В robots.txt запретить индексацию форума. Сурово, и не хотелось бы. И выкинет ли Я из индекса страницы форума, если обнаружит что они запрещены к индексированию?

2. Создать субдомен forum.site.ru и поставить редирект из site.ru/forum/* Как к этому отнесётся Я?

Может быть я заблуждась в принципе, или прав?

Поделитесь соображениями.

С уважением, Юрий.
euhenio
На сайте с 21.09.2001
Offline
357
#1

Прямо на новые материалы давать ссылку на главной. Если позволяет количество новых страниц, можно сабмититьь их руками в Яндекс.

с ув., Евгений Трофименко seo блог Trofimenko.ru ( http://trofimenko.ru/ ) но ыыы мало обновляется... Tools.Promosite.ru - анализатор апдейтов Яндекса (пожертвуйте лимиты на Яндекс.XML! ( https://searchengines.guru/ru/forum/801888/page7#comment_11942489 )) Konvr.ru - увеличение конверсии сайта на 81% за 4 недели ( http://konvr.ru/ )
AiK
На сайте с 27.10.2000
Offline
257
AiK
#2
На ум приходят следующие варианты

Вариант, который работает: cgi-bin запрещён к индексированию, создана карта форума.

Пояснения: в динамике собака и порылась. Я не знаю упомянутого движка, но обычно форма reply минимум удваивает контент, а при применении сессий в php контент разрастается бесконечно, из-за наличия случайных параметров в url. В карте сайта исключаются какие бы то ни было повторы, плюс туда не попадают флеймовые разделы.

Успехов.

S
На сайте с 31.10.2001
Offline
18
Sys
#3
Если позволяет количество новых страниц, можно сабмитить их руками в Яндекс.

Домен находится в зоне .net, и по всей видимости ручной сабмит не прокатит, т.к. для того чтобы Я вообще начал индексацию этого сайта, писал на addurl@Я.

Вариант, который работает: cgi-bin запрещён к индексированию, создана карта форума.

А чем это отличается от запрета индексации /forum/* ? Разве что картой форума, да и к тому же форум писан на php и не работает через cgi-bin.

Пояснения: в динамике собака и порылась. Я не знаю упомянутого движка, но обычно форма reply минимум удваивает контент, а при применении сессий в php контент разрастается бесконечно, из-за наличия случайных параметров в url. В карте сайта исключаются какие бы то ни было повторы, плюс туда не попадают флеймовые разделы.

Ну, упомянутый движок не сильно отличается от этого форума. Уточни, в карте сайта или карте форума? Но суть сводится к тому, что всё-таки получается я прав, на счет обилия бесполезного контента?

Получаем, что лучше пусть не много, но качественно, чем много и не пойми как! Так?

Sergey Petrenko
На сайте с 23.10.2000
Offline
482
#4

AiK, ubbthreads - это развитие UBB, исполненное на php. Все твои подозрения верны, только сессии там не используются, точнее, в урле не прописываются.

Sys, посмотри robots.txt этого сайта - у меня проблем с индексацией нет, но мусорить тоже не хочется. Вот и постарался закрыть все, кроме showthread.php. Правда, если поисковик не умеет склеивать дубликаты документы, то он все равно обожрется этим форумом, но все же вероятность меньше.

Сложно более конкретно посоветовать что-то, ибо за обновляемостью форума ты все равно не поспеешь...

S
На сайте с 31.10.2001
Offline
18
Sys
#5

О, Грей, дельный совет, спасибо!

Вот только возникает вопрос, когда же запрещённые мною файлы Я выкиниет из индекса и перейдёт к делу.

Или может воспользоваться формой удаления страниц?

K
На сайте с 31.01.2001
Offline
737
#6

Конечно, воспользоваться формой. Чего думать - трясти надо. (с) анекдот

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
S
На сайте с 31.10.2001
Offline
18
Sys
#7

☝ Нашел подтверждение свои мыслям, причём на Яндексе. Цитирую:

Все страницы, не отвечающие вышеперечисленным условиям, следует закрывать от индексирования при помощи файла robots.txt. Чем больше Вы закроете "мусора", тем лучше себя будет чувствовать "нормальное содержание".

AiK
На сайте с 27.10.2000
Offline
257
AiK
#8

Gray, обсуждали вроде wwwthreads :)

ибо за обновляемостью форума ты все равно не поспеешь...

А зачем? Я карту форума обновляю раз в сутки. Мне хватает :)

форум писан на php и не работает через cgi-bin.

Это не суть важно. Просто /cgi-bin закрывается одной строкой.

Главное - закрыть все дубли. Между прочим, если поменять параметры GET запроса, то страница останентся той же, а вот URL будут разные.

Поисковику приходится это учитывать. Лучше поисковик думать не заставлять :)

S
На сайте с 31.10.2001
Offline
18
Sys
#9
Я карту форума обновляю раз в сутки. Мне хватает

А можно урл в студию?

AiK
На сайте с 27.10.2000
Offline
257
AiK
#10
А можно урл в студию?

профайл

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий