- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Такая ситуация, есть интернет магазин с более 30к страниц.
Двухуровневая вложенность каталогов : каталог - подкаталог
Товары выводятся в каталоге и подкаталоге. Сделана постраничная навигация и собственно в ней опасения.
ссылка при переходе на вторую страницу выглядит как сайт/каталог?p=2, при этом текст остается тот же что и на сайт/каталог, меняются только товары.
Сразу скажу, адрес товара выглядит как сайт/товар, то есть нет страниц сайт/каталог/подкаталог/товар
Как закрыть такие дубли потратив меньше всего усилий? Robots, .htaccess?
Если можно маленький пример.
Я правильно понял, ты хочешь закрыть от индексации все страницы в категории, кроме первой сайт/каталог?p=2, сайт/каталог?p=3 и т.д.
выводите текст только на первой странице
Во-первых можно закрыть от индексации такие ссылки на сайте.
Если несудьба то:
Robots.txt
Disallow: /*?p=
проверь в ВМ как это работает, не закрывает ли полезные страницы.
Потом набираешься терпения и ждешь пока все переиндексируется.
Важный момент, если одна из таких страниц есть в выдаче по ВЧ или СЧ, то лучше сделать редирект.
To fasonmebel удалите вирусняк на вашей мебели :)
да, хочу такие страницы закрыть, и такие сайт/каталог/подкаталог/?p=2
---------- Добавлено 06.07.2012 в 16:38 ----------
Во-первых можно закрыть от индексации такие ссылки на сайте.
Если несудьба то:
Robots.txt
Disallow: /*?p=
проверь в ВМ как это работает, не закрывает ли полезные страницы.
Потом набираешься терпения и ждешь пока все переиндексируется.
Важный момент, если одна из таких страниц есть в выдаче по ВЧ или СЧ, то лучше сделать редирект.
Спасибо за совет, сайт еще не проиндексирован. Заранее готовлюсь.
Есть еще способы?
Зачем?.........
Чтобы не было дублей!
Чтобы не было дублей!
А не приходило в голову закрыть дублирующийся контент на странице, а сами страницы оставить в поиске? Списки товаров-то разные.
Это должен был сделать програмер еще на этапе создания сайта, переход в категории с первой страницы на следующие осуществляется не через html ссылку, а через скрипт, и всё проблема решена яша через скрипты не переходит. Пример в подписи.
Приходило. Нет возможности (или есть но я о ней не знаю, что вполне возможно) поставить тег <ноиндекс> на страницах с ?p= , либо на всех ставить, либо нигде
CMS Magento
---------- Добавлено 06.07.2012 в 16:54 ----------
Если вы имеете ввиду аякс такое решение рассматривается в данный момент.
Приходило. Нет возможности (или есть но я о ней не знаю, что вполне возможно) поставить тег <ноиндекс> на страницах с ?p= , либо на всех ставить, либо нигде
Если речь идет о "закрытии" текста с описанием категории, так он НЕ должен выводится на вторых страницах категории в принципе. "Ноуиндекс" неправильно решение.
Если речь идет о элементах навигации, меню, сквозных блоках, то все сильно зависит от их содержимого. В любом случае, сейчас вы занимаетесь глупостью.