- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток форумчане!
Хочу закрыть все результаты поиска по сайту от ПС, т.к. дублей создалось несколько тысяч,а на сколько я понимаю это вредит продвижению сайта в целом.
Собственно вопрос: как правильно его закрыть, т.к. их много вариаций?
/search.htm?word=0650 2063 -дубль
/search.htm?groups_id=331&word=01&sort_price -не качеств. дубль(сортировка по цене от поиска)
/search.htm?groups_id=241&word=%FC%ED%FB%F5+%F1&sort_enabled_and_price -эта страница недостаточно качественная, но пока не отображается как дубль
Как грамотно закрыть, что бы не навредить сайту в целом? Или для всех страниц указать <meta name="robots" content="noindex, follow">?
---------- Добавлено 11.05.2017 в 10:34 ----------
В соседнем топике увидел <meta name="robots" content="noindex, follow"> это наилучший способ закрыть страницы пагинации?
---------- Добавлено 11.05.2017 в 11:56 ----------
Или использовать clean param для поиска search? Только как это грамотно прописать?)
Люди помогите разобраться) дубли замучали , что сил нет
Я делал так и еще в работсе указывал эти страницы - <meta name="robots" content="noindex, follow">
Я делал так
А можно подробнее с примером? Я новенький, и уже в голове всё перемешалось.
Мне в роботс прописать
Disallow: *?* -что бы закрыть раз и навсегда все дубли с поиска по сайту?
или
Disallow: /search -или так?
уважаемые знатоки помогите разобраться, как всё правильно оформить
Disallow: /search
всегда таким способом закрываю - быстро и качественно.
Только проверьте, чтобы с /search не нчинались полезные страницы, чтобы и их не закрыть случайно
всегда таким способом закрываю - быстро и качественно.
Только проверьте, чтобы с /search не нчинались полезные страницы, чтобы и их не закрыть случайно
Мне казалось, что с serch идут страницы только поиска)
Мне казалось, что с serch идут страницы только поиска)
всякое бывает, мало ли, ваш разработчик решит назвать URL товаров сайта как нибудь так
/serch/product/id12312321
конечно маловероятно но что в наше время не встретишь))