Не в курсе

12
ExpressAutoComUa
На сайте с 05.10.2008
Offline
87
#11
Dreammaker:
прально, закрываем дублированные страницы в robots, а облако делаем через JS. И всё - и пользователям удобно, и Платон не сердится.

или не закрываем от ПС и выводим в топ ряд нужных НЧ запросов на основе облака или таблицы c линками.

У каждого сайта своя статистика.
[Удален]
#12

Лично я закрываю от индексации в robots.txt

sirota77
На сайте с 08.09.2008
Offline
161
#13

Всё понял, выбираю способ предложенный Dreammakerом.

И есть ещё вопрос на совершенно другую тему:

Для отладки своей cms повесил ГС. Отсканировал половину книги и этим его наполнил. Поставил сапу и даже продал 13 ссылок. Теперь в индексе осталась только главная.

Я понимаю, что это фильтр. Вопрос: может ли он быть снят автоматически ?(если я до сканирую книгу)

Или его можно смело сносить и забывать про домен ?

Писать платонам и втирать что это мега-полезный людям сайт, не хватит фантазии да и не хочу (реальный ГС).

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий