- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте,
Недавно заметил что и Яндекс, и Гугл в результатах поиска показывает одну и ту же страницу но с разными линками для одного сайта. Как пример:
страница под названием Article
1. www.site.com/article.html
2. www.site.com/content/view/53
Сайт сделан на Joomla. Поисковая оптимизация вкючена. Вопрос: подозреваю, что не хорошо для поисковиков разные линки с одинаковым контентом (контент наверно считается не уникальным), но с другой стороны - проиндексировано намного больше страниц сайта. В том случае, если оставить линки только www.site.com/article.html то к-во намного уменьшится.
Нужно ли решать даную проблему?
Если да, каким способом? Переделать /content/view/x чтобы отображалось 404 эррор? Сделать 301 редирект с каждой /content/view/x на правильную страницу? может каким-то образом запретить в робот.txt индексирование /content (если это возможно конечно)? Может еще что посоветуете?
Спасибо
Да, в джумле хватает проблем с дублями.
Дубли надо убирать. Лучше всего склеить 301 редиректом, ПС сами разберутся.
Буквально на днях читал серию материалов по борьбе с дублями. К сожалению, ссылку не сохранил.
Вроде был сайт webmastermaksim.ru и так в глубине. Вообще через гугл можно найти много разных вариантов решения проблемы.
Спасибо, поискал линк - http://webmastermaksim.ru/joomla/joomla-dubli-stranic-skleivaem-v-fajle-htaccess.html
Этот возможно?
И это в том числе. Там перечислено несколько обычных проблем, связанных с дублями. Рекомендую о них также почитать.
А почему просто нельзя закрыть от индексации страницы в robots.txt? Например так:
Disallow: /component/
Disallow: /search/
А почему просто нельзя закрыть от индексации страницы в robots.txt? Например так:
Disallow: /component/
Disallow: /search/
Как ни странно, есть причины.
Самая банальная: модуль вывода свежих новостей на главной с кривыми урлами. А в меню есть раздел новости, где внутри список новостей с нормальными урлами. Но с главной индексация происходит быстрее. Поэтому просто закрыть неразумно, нужен редирект.
Для небольших проблему решит компонент ЧПУ: sef404, Artio SEF и т.п. Но они повышают нагрузку на сервер, что иногда критично.
Хм, встроенный ЧПУ джумлы 2.5 вполне решает эту проблему(и повышает нагрузку на сервер - не значительно). Свежие и похожие новости отображаются с нормальными урлами. Я просто закрыл "component" и "search". Хотя может в 1.5 такая проблема существует. :)
Хм, встроенный ЧПУ джумлы 2.5 вполне решает эту проблему(и повышает нагрузку на сервер - не значительно). Свежие и похожие новости отображаются с нормальными урлами. Я просто закрыл "component" и "search". Хотя может в 1.5 такая проблема и имеет место быть. :)
В роботсе закрывать надо, это не вопрос. Главное, чтобы редирект работал. А если работает редирект, то и роботс нужен скорее для страховки.
В роботсе закрывать надо, это не вопрос. Главное, чтобы редирект работал. А если работает редирект, то и роботс нужен скорее для страховки.
А если например, 2 дубля статьи уже проиндексированы. Поможет ли закрытие одной из статей в роботсе? Или всё таки нужно и закрывать и ставить с той - что не нужна - редирект?
В роботсе закрывать надо, это не вопрос. Главное, чтобы редирект работал. А если работает редирект, то и роботс нужен скорее для страховки.
Согласен на 200%, но с этими редиректами возни много, не знаю или возможно одним правилом перекидывать с /content/view/XXX на /seofriendlylink.html
Попробую закрыть в роботс и поставить 404 эррор на все /content/view/
Все дублирующие линки попробую убрать с гугля
А если например, 2 дубля статьи уже проиндексированы. Поможет ли закрытие одной из статей в роботсе? Или всё таки нужно и закрывать и ставить с той - что не нужна - редирект?
Лучше поставить и редирект, и закрыть ненужную страницу в роботсе. Если закрыть в роботсе и редирект не ставить, придется ждать довольно долго, пока страница, закрытая в роботсе, вылетит. Гугл может вообще забить на роботс.