- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Возникла необходимость продвигать сайт, написанный на CMS Plaza.
Там следующая проблема:
на сайте страниц мало, всего 50-60, однако в гугле показано, что проиндексировано 160 страниц с этого сайта, не под фильтром всего страниц 15. Посмотрел, что это за страницы. Выяснилось, что на сайте легко можно создавать дубли имеющихся страниц, вбивая несколько раз через слеш уже имеющиеся имена каталогов или даже адрес морды.
Например, есть страница www.******.ru\page\pvd.html
Ее же можно открыть введя в панель навигации адрес
www.******.ru\page\page\pvd.html
или даже
www.******.ru\******.ru\page\******.ru\page\pvd.html
Естественно, я такие страницы через CMS не создавал. Ссылок с такими урлами на сайте тоже нет.
Естественно, такие страницы легко загнать под фильтр за неуник.
Пожаловался разработчикам cms, они написали следующее:
"Дубли не создаются, если клиент сам не создал такой дубль. Поисковик не найдет дубль, если клиент не внес его на сайт. Это GET переменные, на них завязано все модульное ядро CMS. Поэтому ядро сложно в реализации и усложнит доработку системы, если она потребуется "
Разводят на бабки, короче.
Пока что закрыл все дубли костылями через robots.txt через disallow
Однако это не гарантирует от появления новых дублей, их вариантов тьма.
Вопрос: можно ли как-нибудь с помощью переменных (* и $) в том же robots или где-нибудь еще уберечься от появления этих дублей. Как можно запретить, допустим, каталог
page\petrochemistry\page
и
petrochemistry\page
если мне нужен просто один каталог
page\petrochemistry
Закрывать все и потом прописывать нужное через allow?
Или проще сразу начинать конвертировать сайт на другую CMS?