- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
url-website/page/17/ - только один пример тса. А может быть url-website1, url-website23, url-website777 и везде страница /page/17/ может быть добавлена в индекс. Короче, админка такая, нужно допиливать. Ну и плюс яндекс подгадил с возможностями передачи всех урлов боту.
нужно смотреть структуру. через роботс проще, но если никак, то пилить cms(((
нужно смотреть структуру. через роботс проще, но если никак, то пилить cms(((
Сейчас посмотрел, не фурычит на последних версиях. Значит тс скорее всего не обновил вп, я же сам об этом писал пару месяцев назад. В любом случае, с каноническими урлами стоит поработать (страницы вида url-website1, url-website4, url-website1255 никуда не делись).
в роботcе Disallow: /page/
только проверить сначала надо, нет ли других полезных страниц в подобной же директории - бывает, что две директории названы одинаково, но с разным уровнем вложенности.
в роботcе Disallow: /page/
Постраничная разбивка тоже закроется от индексации.
Постраничная разбивка тоже закроется от индексации.
Disallow: /page/ -в таком случае, yandex не будет индексировать их в будущем, но уже проиндексированные остаются же? Как же их удалить?
Disallow: /page/ -в таком случае, yandex не будет индексировать их в будущем, но уже проиндексированные остаются же? Как же их удалить?
В следующий ап сами выпадут. Или, если нет желания ждать, добавляешь список страниц в роботс (disallow/) и вперед в https://webmaster.yandex.ru/delurl.xml. После операции приводишь роботс в первоначальный вид.
Вообще каноническая ссылка помогает в таких случаях. Но вот интересно как такие страницы в индекс вообще попадают? Мне кажется маловероятным что их руками кто-то в аддурилку загонял. Я бы проверил не формируются ли такие ссылки где-то на сайте.
В следующий ап сами выпадут. Или, если нет желания ждать, добавляешь список страниц в роботс (disallow/) и вперед в https://webmaster.yandex.ru/delurl.xml. После операции приводишь роботс в первоначальный вид.
А если на эти страницы есть какието ссылки? Твиттер например. 🙄
А если на эти страницы есть какието ссылки? Твиттер например. 🙄
то 301 редирект
если есть желание и время
Я думаю, что пользователи в первую очередь ищут контент и соответственно, находят в выдаче - страницы статей, а не страницы каталогов. Соответственно, возможно есть смысл закрыть от индексации содержимое страниц каталогов - каталоги по категориям, датам, авторам и их пагинацию. Ведь польза от их нахождения в поисковой выдаче не очевидна. С другой стороны, это дублирование контента и некачественные внутренние ссылки.
Я не уверен, будет ли робот сканировать ссылки найденные на страницах с установленным <meta name="robots" content="noindex"> . С одной стороны, указан noindex, без nofollow. С другой стороны, если не будет, поисковым роботам для этой цели можно предоставить карту сайта. Но я рекомендую использовать именно META-тег для запрета индексации оговоренных страниц.