neznaika, не был бы уверен, не писал. ;)
MuSHyTA, нормально всё у Вас с robots.txt. :)
По конкурентным запросам это наблюдается с середины декабря 2007 года. Так что Вы не одиноки в своих наблюдениях и предположениях. ;)
Мы с Цахес будем спорить. :)
+1. «Allow» Вам, International, в помощь. ;)
Для нормальной работы sape.ru данный robots.txt не подходит, так как его робот попадает под правило, описанное в данной секции:
User-agent: * Disallow: /
Прописать отдельную секцию для его робота на данный момент невозможно. Так что, увы.
С чего это Вы взяли? Запрещено всем, кроме Яндекса, Рамблера и Гугла вообще-то. ;)
Скорее другое — никто не сталкивается с такой проблемой, потому как не допускает появления нескольких адресов Url у одного документа (стандартными средствами движка/кода, либо 301-ым редиректом). ;)
Сам в шоке. :)
Ну если уметь оценивать вклад конкретной ссылки в ранжирование и разбираться в страничных факторах релевантности, то почему бы и нет? Не вижу ничего не возможного.
«Курсы», 30-ю ссылками с доноров, уровня тех, которые вошли в число 18 000 то? Вы случаем с Сегаловичем не работали? :)
Кто же Вам так ответит? Это скорее философский вопрос. Ссылка ссылке — рознь, знаете ли.
Кому-то может и 18 000 не хватить. Смею предположить, что из тех 18 000 Гссылок, что вы купили, рабочих дай бог 1 000 наберётся.
Что за ключевики? А то тут некоторые 30-ю ссылками выводят конкурентные СЧ. :)
Санкций не замечено. И их вероятность крайне мала.
😮 А чего не 100 000? Или не успели просто? Сумасшедшие. :)