- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В Вебмастере Яндекс постоянно то добавляет, то удаляет страницы. Как правильно прописать о запрете:
Правильная страница:
/cat/routery-3g-4g-2.html
Регулярно попадаются подобные:
/cat/routery-3g-4g-2.html?s=2&f=2
и через небольшой промежуток их удаляет
Правильная:
/-3g-kamery-2.html
Неправильная:
-3g-kamery-2.html?s=2&f=2
И таких страниц много. Как правильно запретить в robots, чтобы после html игнорировал такие вещи?
каноникалом это лечат)
Disallow: /*?s=2
не пойдет?
Disallow: /*?s=2
не пойдет?
Должно подойти!
Disallow: /*?s=2
не пойдет?
Или можно:
Disallow: /*?s=
На случай если с другими цифрами есть
(Clean-param еще директиву можно)
Да, спасибо так и сделали, плюс каноникал криво работал - написали в тех поддержку CMS все поправили. Сейчас посмотрим на результат. Вот, что происходит сейчас:
Постоянно ставит яндекс: то добавляет, то удаляет.
Обрубайте все динамические
Disallow: /*?s
При правильной настройке CMS и адресации целевых страниц по этой ветке адресов быть не должно.
odbs, и все остальные, кто тут про robots писал
Вот что нам сообщает прямым текстом гугль, к примеру (Яндекс ничего не сообщает, но это ничего не значит, мы же знаем)
Googlebot не будет напрямую индексировать содержимое, указанное в файле robots.txt, однако сможет найти эти страницы по ссылкам с других сайтов. Таким образом, URL, а также другие общедоступные сведения, например текст ссылок на сайт, могут появиться в результатах поиска Google. Чтобы полностью исключить появление URL в результатах поиска Google, используйте другие способы: парольную защиту файлов на сервере или метатеги с директивами по индексированию.
odbs, и все остальные, кто тут про robots писал
Вот что нам сообщает прямым текстом гугль, к примеру (Яндекс ничего не сообщает, но это ничего не значит, мы же знаем)
Поправили, изменили роботс, а так же подкорректировали каноникал, который корректно не работал ввиду подгрузки страниц
Сейчас yandex удалил все кривые страницы и добавляется новые в индекс, при корректно настроенном робоксе и "каноникле" страницы быстр опопадают в индекс, а некоторые в течении недели залетают в индекс. Если страница СЧ или с НЧ запросами, то может и в ТОП10 встать