- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, уважаемые форумчане.
У меня вопрос насчет большого количества страниц в индексе.
Если верить инструментам веб мастеров, в индексе около 1,5 млн страниц, или по запросу site:название сайт/&
В основной выдаче около 3 тыс страниц. site:название сайт/
На сайте (интернет магазин) чуть больше 4 тыс товаров + страницы со статьями.
Просмотрев выдачу заметил что все хламные ссылки имеют следующий вид
По ссылкам видно, что проиндексировались фильтры из каталога с товарами.
Необходимо закрыть от индексации ссылки содержащие size и color, а так же другие значения фильтров.
Вопрос номер один - Подскажите, как лучше это сделать?
И собственно вопрос номер два, который меня интересует, как после запрета индексации не нужных ссылок, на это отреагируют ПС ?
Просмотрев выдачу заметил что все хламные ссылки имеют следующий вид
в какой это ПС?
Не переживайте лишний бред со временем выпадет сам, потянув за собой и часть нормального контента // потому лучше закрыть нежелательные ссылки в Робот тхт
В поисковике Google.
А так же в инструментах для веб-мастеров в раздел - ошибки сканирования можно наблюдать больше кол-во ссылок, которые не рабочие, а перестают они работать тогда, когда какое то значения фильтров скрывалось с сайта и гугл не мог найти эту ссылку, соответственнопомечает ее, что вполне логично.
В поисковике Google.
я б оставил все как есть. в Яше же нормально?
Не переживайте лишний бред со временем выпадет сам, потянув за собой и часть нормального контента // потому лучше закрыть нежелательные ссылки в Робот тхт
вопрос был в том как лучше этого сделать ? ;)
а почему лишние хламные ссылки сами отпадут, если я ничего для этого не сделал?
Если верить графику в Инструментах для веб-мастеров, в разделе Статус индексирования то все идет по возрастающей.
Закрыть так
(ну, суть понятна, надеюсь)
Всё это будет полезно, дубли страниц ни к чему
Такой вопрос своеобразный ответьте пожалуйста однозначно.
Есть сайт который был в топе долго время, после смены CMS осталось много страниц лишних в индексу гугла, потом пришел пингвин и сайт вообще пропал из выдачи.
Внимание вопрос, убирать дубли и закрывать старые страницы от индексации?
Лично Я бы все закрыл, далее накупил ссылок с анкормами как у конкурентов.
Интересует ваше мнение