Ну тоже самое. Разве что Маркет подмешивается, но это все злые проделки Яндекса :)
Надо еще скринов)
alehvx, кхм... А есть кто-нибудь из регионов - дайте скрин на запрос "ремонт роялей Екатеринбург" в Яндексе.
Я вашу мысль понял, но чего то мне до сих пор не вериться :)
Ну так подставляйте нужный вам регион с помощью get-параметра lr.
Питер
Москва
Приволжский автономный округ о_О
Яндекс советует держать редиректы минимум 1 год.
Яндекс с Гуглом уже смогут прогнозировать количество переходов по вашим ссылкам и понять их ценность, а вы все про PR...
Если ссылки будут не кликабельные - не делайте, это тупо.
Чего то мне кажется, что у вас не в серверах проблема. Я когда смотрел технические конференция Яндекса про устройство поиска, то там в разных дц обрабатываются разные кластеры страниц сайтов и они не по регионам бьются, иначе если бы выключился дц на время весь сайт мог бы выпасть из индекса, т.к. роботы не могли бы получить информацию о нем, а такого не бывает. Может чего путаю.
Уверены, что нет проблемы с персонализацией выдачи и т.п.? По геозависимым запросам про указание региона не забываем, но ваш пример геоНЕзависимый.
Ну уж не с 50, а с 1500 в месяц.
P.S. Я монетизирую проекты чем то реальным - продажей товаров / услуг. Там с минимальными вложениями можно зарабатывать.
1. Страницы могли уже находиться в индексе, их закрыли в robots, но им нужно будет время, чтобы вылететь из индекса.
2. При обходе роботом сайта robots мог быть недоступен, составлен некорректно и робот обошел сайт без него.
Какой смысл поисковым системам придумывать инструменты для вебмастеров, а потом игнорировать их? Просто бы не давали бы возможности пользоваться таким функционалом как robots.
Да и тем более никто не будет закрывать в robots важные страницы сайта, которые могут генерировать траф, это чушь.
На каждом проекте используем robots и на каждом проекте он отрабатывает нормально. Я вам могу привести множество примеров адекватной работы этого файла, попробуйте привести хоть парочку с косячной работой...
Utlan, вам необходимо сделать несколько разных sitemap, например, по разделам сайта. Не забудьте их все загрузить в google search console и Яндекс Вебмастере.
Пруф?
Не "вроде как должен", а запрещает.
Если что, ответ Платона:
"Если страница закрыта от индексирования в robots.txt, робот не посещает такую страницу и не скачивает ее содержимого, в том числе и ссылки."