- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток форумчане!
Хочу закрыть все результаты поиска по сайту от ПС, т.к. дублей создалось несколько тысяч,а на сколько я понимаю это вредит продвижению сайта в целом.
Собственно вопрос: как правильно его закрыть, т.к. их много вариаций?
/search.htm?word=0650 2063 -дубль
/search.htm?groups_id=331&word=01&sort_price -не качеств. дубль(сортировка по цене от поиска)
/search.htm?groups_id=241&word=%FC%ED%FB%F5+%F1&sort_enabled_and_price -эта страница недостаточно качественная, но пока не отображается как дубль
Как грамотно закрыть, что бы не навредить сайту в целом? Или для всех страниц указать <meta name="robots" content="noindex, follow">?
---------- Добавлено 11.05.2017 в 10:34 ----------
В соседнем топике увидел <meta name="robots" content="noindex, follow"> это наилучший способ закрыть страницы пагинации?
---------- Добавлено 11.05.2017 в 11:56 ----------
Или использовать clean param для поиска search? Только как это грамотно прописать?)
Люди помогите разобраться) дубли замучали , что сил нет
Я делал так и еще в работсе указывал эти страницы - <meta name="robots" content="noindex, follow">
Я делал так
А можно подробнее с примером? Я новенький, и уже в голове всё перемешалось.
Мне в роботс прописать
Disallow: *?* -что бы закрыть раз и навсегда все дубли с поиска по сайту?
или
Disallow: /search -или так?
уважаемые знатоки помогите разобраться, как всё правильно оформить
Disallow: /search
всегда таким способом закрываю - быстро и качественно.
Только проверьте, чтобы с /search не нчинались полезные страницы, чтобы и их не закрыть случайно
всегда таким способом закрываю - быстро и качественно.
Только проверьте, чтобы с /search не нчинались полезные страницы, чтобы и их не закрыть случайно
Мне казалось, что с serch идут страницы только поиска)
Мне казалось, что с serch идут страницы только поиска)
всякое бывает, мало ли, ваш разработчик решит назвать URL товаров сайта как нибудь так
/serch/product/id12312321
конечно маловероятно но что в наше время не встретишь))