- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрдень!
Сделал тех. анализ в сапе.
Он показал, что в основном индексе ПС у меня содержится больше страниц, чем в основном, а так же выявил много дублей.
Беглый осмотр показал, что это, в основном, страницы образованные различными поисковыми параметрами по каталогу имеющемуся на сайте.
Мой вопрос в том как исправить эту ситуацию? Как с каталогом поступать в принципе?
Самый простой для меня способ - это запретить индексировать страницы с параметрами поиска, но как бэ не айс?
Что делать?
Самый простой для меня способ - это запретить индексировать страницы с параметрами поиска, но как бэ не айс?
Это почему?
Роботы сами сайтовым поиском не пользуются, а ссылки которые генерятся с использованием параметров поиска не могут давать идентичный контент, иначе какой в них смысл?