В смысле, боту одно всем остальным другое? Обычный клоакинг, за который банят. Как его реализуешь в мягкой форме, рефер парсить? Что это даст?
А какой результат там может появится? Ваш сайт грузится очень долго? И на какой вопрос ответит данное оповещение?
У одного из сайтов написано: В среднем страницы на вашем сайте загружаются за 4,6 с. (обновлено 22.04.2010). Это медленнее, чем 72 % сайтов. И что? Весь прошлый год в топе просидел, и в этом году ни куда не опустился.
Лучше запретить индексацию в robots.txt, пока не готов контент. Первые 3 месяца я бы не торопился покупать ссылки, но если есть желание, можно начинать подкупать. Ссылки будут учитываться.
WMT новый сайт:
Количество проиндексированных URL: 42
Смотрю выдачу с русского ip - 6
C американского ip - 1
В каких соплях? :)
А нет закономерностей. Разумеется, какие-то технические моменты регулируют это дело, но они очень динамичны. Постоянно подкручивают гайки и меняют подобные параметры. Видимо для того, чтоб дорвейщики ключи не подобрали. :)
Для примера, вставьте в код страницы нового сайта большой объём текста с высокой плотностью коммерческого ключевика (в одну строку) без переносов. После индексации 99% на то, что страница долгое время будет недоступна для поиска, даже если она будет единственной на домене. Но это как говорится сделать страницу явно напоминающую дешёвый дор. Более тонкие параметры вычислить не удаётся, хотя пытался одно время.
Не, не то направление. Бывает что проиндексирует новый сайт менее чем из 10 страниц, а в поиске участвуют только 2-3. Или выставит кучу страниц многостраничника, и все сразу нормально ищутся.
А так называемые "сопли" каким боком здесь? Страница может показываться звёздочкой, но не участвовать в поиске, так же и наоборот.
Можно забанить по маске юзер агенты "Java/1.6.0_04" и подобные. Часть злобных парсеров останется в пролёте. Защиты на 100%, согласен, не существует.
По поводу сабжа, то вряд ли это реально. На сколько мне известно, подобного функционала в гугле нет.
Знаю сайты, контент которых на 100% состоит из ворованного на других сайтах. Как ни странно, эти сайты довольно нормально чувствуют себя в поисковике. Честно сказать не понятно, как вообще работает фильтр за не уник.
Дело не в org. Домены biz, com и net ни чем не хуже. Просто эти домены не несут привязки к какому-то конкретному региону, а по сему, для них все двери открыты.