Всем привет. Гуру роботса, подскажите, пожалуйста, насколько возможно сделать подобное:
Имеется огромный ряд url по типу
https://site.com/ru/sankt-peterburg/real-estate/
https://site.com/ru/moskwa/real-estate/
https://site.com/ru/omsk/real-estate/
Доступной к индексации требуется только https://site.com/ru/real-estate/ (без города)
Как запретить их в роботсе и возможно ли это в принципе?
Спасибо! https://prnt.sc/icqq2t - как раз этим стали заниматься. Тем более что на страницах по 4к уникального контента, а страницы даже в индекс без подталкивания не попадают. Видимо как раз из-за частичной склейки.
Работаем с ТС не первый год, за все это время зарекомендовал себя как ответственный, внимательный и позитивный исполнитель. Весь контент всегда отличного качества и сдается точно в обозначенный срок. Отмечу еще один немаловажный аспект, ценник у ТС существенно ниже рынка, без ущерба качеству - что редкость. Спасибо.
😂
А по сабжу-то что? Никто не сталкивался?
Их профит заключается в общей цене настройки и ведения рекламной кампании (ежемесячно) + возврат НДС. Т.е. понятно что чем дольше мы с ними будем работать, тем лучше для них:) Цена вопроса существенно больше 5к.---------- Добавлено 07.07.2017 в 12:30 ----------
Это не ИМ, обычный сайт предлагающий услуги.
Ну нормальные-то понятно. Не всегда есть отзывы о работе той или иной компании, а если и есть - не факт что они реальные.
Вопрос по прежнему актуален - кто-нибудь сталкивался с подобным явлением?
Источник достоверный?
Спасибище!:)
Да, тоже заметил такую тенденцию. Насчет редиректа также согласен. Но тем не менее роботс сконфигурировать все равно нужно:) Жду еще мнения:)
Работаем с ТС почти 2 года. К делу подходит максимально ответственно, вникает в детали требуемого контента. Сроки выполнения всегда оперативные. За что еще раз огромное спасибо:)