- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Я не SEO, но отвечаю в компании за сайт. Поэтому прошу прощения, если повтор, но по поиску однозначных ответов не нашел...
Сайт компании (тиц >400, pr 5) в очень конкурентной сфере. Общие позиции сайта хорошие, в совокупности на 30-40% выше конкурентов. НО конкурентов много, все (и мы) платят за оптимизацию. Поэтому расслабляться нельзя.
На сайте есть реально работающий раздел вопросов-ответов, более 10 тыс. элементов в базе.
Все делается руками, контент полностью уникальный и постоянно пополняемый. Раздел очень помогает в заходах из ПС по СЧ/НЧ запросам. Вопросы выводятся по 10шт. на страницу, по LIFO, есть листание по страницам и фильтрация по разделам(услугам), продукции(моделям), годам/месяцам.
Листание и фильтры - это соответственно внутренние ссылки в навигации(меню) сайта, которые реально в URL добавляют некоторую совокупность параметров. В итоге получается, что роботы ПС индексируют множественные сочетания вопросов-ответов (выборок из базы), сформированных по разным параметрам. Соответственно число индексированных страниц в ПС получается сильно завышенным. Сделано это не специально, просто так изначально работает CMS сайта.
Пример URL: site.ru/faqs/archivs.html?year=2009&month=&page=1&usl_id=3&mod_id=
Наши оптимизаторы утверждают, что такое увеличение числа страниц в индексе ПС только поднимает "вес" сайта в глазах ПС и положительно сказывается на ранжирование в выдаче.
Мне же кажется, что это резко повышает нагрузку на роботы ПС и может привести к санкциям(фильтрам) со стороны ПС, если они способны на это среагировать.
Теперь вопрос.
Требуется ли облегчать работу роботам ПС, закрывая обход "дублей в выборке" с помощью директив Clean-param (в robots.txt) или тегов noindex перед ссылками с параметрами? Либо, что проще, можно всё оставить как есть?
Можно за это нарваться на санкции со стороны ПС?
Спасибо, если "просветите"...
ДВС! Очень жду ответов... Неужели никто не сталкивался?! Или тема настолько заезженная, что отвечать всем уже надоело??? Тогда, пож., дайте ссылку, где почитать. :(