- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вот такая мысль. На моём сайте развлекательной тематики есть основной контент и форум. Форум построен на базе известного движка wwwthreads, который генерирует достаточно большое количество страниц, впрочем как и другие движки.
Всё сильнее и сильнее складывается впечатление, что чем жирее становится форум, тем ленивее яндекс индексирует/переиндексирует основной контент сайта, не любит заходить очень глубоко и т.п.
Яндекс знает документов
всего: 2086
из форума: 1111
следовательно на контент приходится: 975
Важно наличие свежего переиндексированного контента сайта, а не форума.
На ум приходят следующие варианты:
1. В robots.txt запретить индексацию форума. Сурово, и не хотелось бы. И выкинет ли Я из индекса страницы форума, если обнаружит что они запрещены к индексированию?
2. Создать субдомен forum.site.ru и поставить редирект из site.ru/forum/* Как к этому отнесётся Я?
Может быть я заблуждась в принципе, или прав?
Поделитесь соображениями.
Прямо на новые материалы давать ссылку на главной. Если позволяет количество новых страниц, можно сабмититьь их руками в Яндекс.
Вариант, который работает: cgi-bin запрещён к индексированию, создана карта форума.
Пояснения: в динамике собака и порылась. Я не знаю упомянутого движка, но обычно форма reply минимум удваивает контент, а при применении сессий в php контент разрастается бесконечно, из-за наличия случайных параметров в url. В карте сайта исключаются какие бы то ни было повторы, плюс туда не попадают флеймовые разделы.
Успехов.
Домен находится в зоне .net, и по всей видимости ручной сабмит не прокатит, т.к. для того чтобы Я вообще начал индексацию этого сайта, писал на addurl@Я.
А чем это отличается от запрета индексации /forum/* ? Разве что картой форума, да и к тому же форум писан на php и не работает через cgi-bin.
Ну, упомянутый движок не сильно отличается от этого форума. Уточни, в карте сайта или карте форума? Но суть сводится к тому, что всё-таки получается я прав, на счет обилия бесполезного контента?
Получаем, что лучше пусть не много, но качественно, чем много и не пойми как! Так?
AiK, ubbthreads - это развитие UBB, исполненное на php. Все твои подозрения верны, только сессии там не используются, точнее, в урле не прописываются.
Sys, посмотри robots.txt этого сайта - у меня проблем с индексацией нет, но мусорить тоже не хочется. Вот и постарался закрыть все, кроме showthread.php. Правда, если поисковик не умеет склеивать дубликаты документы, то он все равно обожрется этим форумом, но все же вероятность меньше.
Сложно более конкретно посоветовать что-то, ибо за обновляемостью форума ты все равно не поспеешь...
О, Грей, дельный совет, спасибо!
Вот только возникает вопрос, когда же запрещённые мною файлы Я выкиниет из индекса и перейдёт к делу.
Или может воспользоваться формой удаления страниц?
Конечно, воспользоваться формой. Чего думать - трясти надо. (с) анекдот
☝ Нашел подтверждение свои мыслям, причём на Яндексе. Цитирую:
Все страницы, не отвечающие вышеперечисленным условиям, следует закрывать от индексирования при помощи файла robots.txt. Чем больше Вы закроете "мусора", тем лучше себя будет чувствовать "нормальное содержание".
Gray, обсуждали вроде wwwthreads :)
А зачем? Я карту форума обновляю раз в сутки. Мне хватает :)
Это не суть важно. Просто /cgi-bin закрывается одной строкой.
Главное - закрыть все дубли. Между прочим, если поменять параметры GET запроса, то страница останентся той же, а вот URL будут разные.
Поисковику приходится это учитывать. Лучше поисковик думать не заставлять :)
А можно урл в студию?
профайл