- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые гуру,
подскажите, в чем может быть причина следующего явления:
на сайте одновременно существуют одинаковые страницы, адреса различаются только слешем на конце (т.е. на одной странице он есть, на другой, идентичной, его нет). Обратили внимание на них случайно, протестив сайт сервисом seoto.me, поэтому когда они появились - непонятно. Однако, сервис нарыл на сайте около сотни таких дублей. 301 редиректа между ними нет - страницы грузятся с обоими адресами независимо друг от друга.
Одновременно обнаружились дубли другого вида, "хвост" дублирующей страницы выглядит так: /requestParams/page/2, но на самом деле никакой второй страница там нет, на обеих одинаковый контент.
Ну и сразу второй вопрос, что с ними делать-то? Если просто поставить редиректы - это приемлемо?
Тут всего один ответ - причина таких страниц на сайте это движок. То есть ни бот, ни ПС увидеть таких страниц не могут при обходе, если нет ссылок на такие страницы.
Как выловить багу - парсите сайт софтом и смотрите на каких страницах встречается неправильная ссылка. Потом открываете ссылающуюся страницу в браузере, отображаете ее html-код и ищите на странице где стоят эти битые ссылки.
А дальше просто правите код движка, который генерирует этот хлам.
Вообще дубли на 1 сайте уже давно не страшны, поисковые машины сами научились с ними бороться, так как большинство движков формирует кучу ненужных страниц на сайте (теги, страницы авторов и т.п.), из дублей выбирается одна самая релевантная, а остальные просто исключаются из показов, но периодически индексируются на предмет изменения.
Нет, оно конечно "не камильфо", но и страшных санкций вы не получите.
Установите причину дублей и - или правьте движок, или закройте их в роботс и забудьте.
Если просто поставить редиректы - это приемлемо?
Нет. Поломаете ЦМС. А вот каноникал запилить не мешало б.
Без знания движка советовать как- трудно, но в большинстве есть поле кейвордс - его можно и заюзать, прилепив костыль к шаблону (и несложный скрипт - или - просто руками писать адрес страницы)
Если интересно как - спросите тут.
PS у вас вроде форум - терзайте разрабов
---------- Добавлено 02.04.2016 в 00:38 ----------
или закройте их в роботс и забудьте.
Это не лучшее решение)
в чем может быть причина следующего явления:
на самом деле никакой второй страница там нет, на обеих одинаковый контент.
Контент доступен для бота по разным урлам (это и причина, и признак дублей).
А с т.з. людей на это смотреть не надо.
Создатели движков не думают о проблеме (надо бы ответить не 200).
А создателям ПС приходится экномить свои ресурсы == убивать чьи-то дубли.
поисковые машины сами научились с ними бороться, так как большинство движков формирует кучу ненужных страниц на сайте (теги, страницы авторов и т.п.), из дублей выбирается одна самая релевантная
Но иногда она оказывается не той, что нужна.
PS у вас вроде форум - терзайте разрабов
Не, у нас корпоративный сайт. Он старый, 2009 года. Понятно, что там за это время куча народу руки приложила. Разработчики на это и валят, типа, давайте мы вам восстановим оригинальные файлы. Но там столько денег, времени и усилий вложено в изменения, что это вообще не вариант.
Сайт на php. Переделывать его на новой платформе пока тоже не вариант, надо как-то исправить этот (((
Если это Joomla, то причина дублей естественна, несмотря на удобство движка, дубли появляются постоянно. Впрочем бороться с ними это минута дела.
Закрываете в роботсе, по признакам и всё.