- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день, помогите разобраться
яндекс видит страницы
https://мойсайт/albums/12957
https://мойсайт/albums/12957/
как дубли, и при этом уже принял за дубли уже очень много страниц без слэша и исключил их из выдачи. Как мне это переиграть и пресечь в будущем?
Если добавить в роботс такую строку:
Disallow: /albums/*/
то у всех новых страниц будет правильная индексация (без слеша в поиск, со слешем в игнор), но что будет со старыми исключенными из выдачи страницами без слеша, робот их переобойдет и они снова появятся в выдаче?
Если добавить в роботс такую строку:
Disallow: /albums/*/
то у всех новых страниц будет правильная индексация (без слеша в поиск, со слешем в игнор), но что будет со старыми исключенными из выдачи страницами без слеша, робот их переобойдет и они снова появятся в выдаче?
В принципе, да. Но если робот решил удалять из поиска именно урлы без слэша, так может их и запретить? Тогда в роботсе нужно будет прописать:
Disallow: /albums/*
Allow: /albums/*/
Но можно и другими способами решить проблему:
- 301-й редирект
- канонический мета-тег
- выдавать ошибку 404 на страницах со слэшом или без слэша
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !\..+$
RewriteCond %{REQUEST_URI} !/$
RewriteRule (.*) http://www.site.ru/$1/ [R=301,L]
Указать в файле htaccess, вместо site.ru вписать свой сайт
Elparmus, на такие дубли обычно сразу постоянный редирект вешают и потом больше не вспоминают. Вот из наших движков общего назначения:
В принципе, да. Но если робот решил удалять из поиска именно урлы без слэша, так может их и запретить? Тогда в роботсе нужно будет прописать:
Disallow: /albums/*
Allow: /albums/*/
Но можно и другими способами решить проблему:
- 301-й редирект
- канонический мета-тег
- выдавать ошибку 404 на страницах со слэшом или без слэша
Робот удаляет и со слешем и без, но чаще со слешем. Добавлю строку с allow, спасибо
---------- Добавлено 28.06.2017 в 15:31 ----------
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !\..+$
RewriteCond %{REQUEST_URI} !/$
RewriteRule (.*) http://www.site.ru/$1/ [R=301,L]
Указать в файле htaccess, вместо site.ru вписать свой сайт
Спасибо, отправила это программисту, для меня это пока слишком сложно
---------- Добавлено 28.06.2017 в 15:32 ----------
Elparmus, на такие дубли обычно сразу постоянный редирект вешают и потом больше не вспоминают. Вот из наших движков общего назначения:
Спасибо, отправила это программисту, для меня это пока слишком сложно