- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Столкнулись с такой проблемой: при сканировании блога интернет магазина найдено несколько страниц, в конце URL которых blog?start=20. Цифру можно менять в самом URL до бесконечности, 404 ошибки не выдает. Вопрос: как быть с такими страницами? Если это важно, сайт на joomla.
Спасибо.
Как минимум, я все лишние страницы с ? запрещаю в роботс. Чтобы дубли не плодились. А потом еще можно переадресацию попробовать настроить.
А если просто rel="canonical" указать?
при сканировании блога интернет магазина найдено несколько страниц, в конце URL которых blog?start=20
надо удалить из кода их, что бы нигде их не было
если точнее, сайт не должен отдавать 200 на такие страницы
Как минимум, я все лишние страницы с ? запрещаю в роботс. Чтобы дубли не плодились. А потом еще можно переадресацию попробовать настроить.
Столкнулись с такой проблемой: при сканировании блога интернет магазина найдено несколько страниц, в конце URL которых blog?start=20. Цифру можно менять в самом URL до бесконечности, 404 ошибки не выдает. Вопрос: как быть с такими страницами? Если это важно, сайт на joomla.
Предполагаю, что это постраничная навигация. И для каталога товаров это необходимая вещь. В таком случае "удалять из кода", как тут вещают неучи из подполья, нельзя (не говоря уже о сложности, рисках и целесообразности такого предприятия).
Если такое происходит на других страницах, не предназначенных для пагинации, то нужно лечить Джумлу. В качестве косылей сгодиться роботс и каноникал.
если точнее, сайт не должен отдавать 200 на такие страницы
это само собой, но главное что бы найти пс не могли страницы такие
И для каталога товаров это необходимая вещь
при сканировании блога
😂
Ну да блог это же каталог товаров, ну а название темы зачем читать ? 😂
SeVlad #:
В качестве косылей сгодиться роботс и каноникал.
мне кажеться что костыли нужны кое кому уже ))
роботс запрещает сканировать в том числе и каноникал, изучи мат часть
это само собой, но главное что бы найти пс не могли страницы такие
Так это могут конкуренты баловаться, навалить ссылок на страницы, которые будут 404 отдавать. У меня похожая ситуация была. Причём адски много таких страниц появилось сразу. Пофиксил, ожидал чудесного прироста по трафику, но вообще ничего не изменилось в итоге.
Так это могут конкуренты баловаться, навалить ссылок на страницы, которые будут 404 отдавать. У меня похожая ситуация была. Причём адски много таких страниц появилось сразу. Пофиксил, ожидал чудесного прироста по трафику, но вообще ничего не изменилось в итоге.
да и такое бывает. Если полный дубль - то канон сработает, главно не закрывать в роботсе как некоторые "советуют" .
Если про пагинацию: у меня Яндекс недавно проиндексировал пагинацию и выплюнул в вебмастер алерты на одинаковые тайтлы и дексрипшены страниц блога, несмотря на то, что стоял каноникал.
Но я там накосячил с роботсом, возможно, поэтому. Сейчас все закрыл и проблема исчезла. Никакой просадки по трафу нет (но продолжаю вести наблюдение) :D
Гуглу плевать, он там сам разбирается что и как индексировать и проблем с открытой пагинацией не создает. Не знаю с чем это связано, может с картой сайта? - на старте сайта как создал ее через Yoast, скормил сайтмапу в консоли так и работает до сих пор.
Если про пагинацию: у меня Яндекс недавно проиндексировал пагинацию и выплюнул в вебмастер алерты на одинаковые тайтлы и дексрипшены страниц блога, несмотря на то, что стоял каноникал.
Меня тоже раздражало сообщение в Вебмастере, просто уникализировал Тайтлы и Дескрипшены на страницах пагинации – страница 2 из 30. Вообще, насколько правильно от индексации закрывать страницы пагинации? Если это не полные дубли, значит они важны и нужны. Разве нет?