- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Родилась такакя мысль, так как постоянно править код CMS (я использую Joomla) очень трудозатратно - использовать редирект.
То есть страница дубль загружается, на ней стоит редирект 302 который отправляет на оригинальную страницу. Верно ли я мыслю и как к этому отнесутся поисковики? Перестанут ли они видеть дублирование контента? :idea:
_voland_, чтобы не заморачиваться такими вопросами, лично я предпочёл слезть с джумлы. ;)
Там же вроде можно плагин поставить, который с дублями разбирается. Впрочем я по старинке - в роботсе запрещаю по маске, типа /*?tmpl Ну и 404 ошибку настроил. Хотя можно и только ошибку, просто я не люблю когда ошибки в вебмастере скапливаются.
Там же вроде можно плагин поставить, который с дублями разбирается. Впрочем я по старинке - в роботсе запрещаю по маске, типа /*?tmpl Ну и 404 ошибку настроил. Хотя можно и только ошибку, просто я не люблю когда ошибки в вебмастере скапливаются.
Можно по подробнее, а то сайт уже старый и ставить АРтио не выход, пытаюсь найти другие методы
Ну это не особо вариант, я иду по пути доработки до нормального состояния, это все таки эффективнее и дешевле чем писать свою
_voland_ добавил 14.04.2009 в 14:18
Там же вроде можно плагин поставить, который с дублями разбирается. Впрочем я по старинке - в роботсе запрещаю по маске, типа /*?tmpl Ну и 404 ошибку настроил. Хотя можно и только ошибку, просто я не люблю когда ошибки в вебмастере скапливаются.
Да, просьба про плагин подробнее.. хотя бы название
С плагином все просто, Артио ставь, и все ссылки станут красивыми, НО ДРУГИМИ! А следовательно это не выход для старых сайто обросших естественными ссылками, только для молодых.
С плагином все просто, Артио ставь, и все ссылки станут красивыми, НО ДРУГИМИ! А следовательно это не выход для старых сайто обросших естественными ссылками, только для молодых.
Artio платный, имеется для этих целей Sh404SEF но это все равно не спасает если есть не-sef ссылки
а вроде в openSEF был автоматический редирект на красивый урл
_voland_, чтобы не заморачиваться такими вопросами, лично я предпочёл слезть с джумлы. ;)
А на что пересели ?
Там же вроде можно плагин поставить, который с дублями разбирается. Впрочем я по старинке - в роботсе запрещаю по маске, типа /*?tmpl Ну и 404 ошибку настроил. Хотя можно и только ошибку, просто я не люблю когда ошибки в вебмастере скапливаются.
А можно подробней как закрыть по маске в роботсе? Какой нибудь пример или ссылку, что бы не закрыть чего-то лишнего. Благодарю.
А можно подробней как закрыть по маске в роботсе? Какой нибудь пример или ссылку, что бы не закрыть чего-то лишнего. Благодарю.
http://webmaster.yandex.ru/wmconsole/public_robots_txt.xml
Загружаете роботс, а в нижнее поле кучу дублей из индекса. Затем подбираете общий признак дублей, чтобы всю группу закрыть одним или несколькими правилами. Затем проверяете - если запрет сработал - добавляете правило в роботс на сайте.