Sower

Sower
Рейтинг
659
Регистрация
30.12.2009
beginerx:
только клоакинг или что-то подобное в мягкой форме...

В смысле, боту одно всем остальным другое? Обычный клоакинг, за который банят. Как его реализуешь в мягкой форме, рефер парсить? Что это даст?

Ippi:
поставьте мегабайтный бэкграунд и посмотрите на результат в WMT :)

А какой результат там может появится? Ваш сайт грузится очень долго? И на какой вопрос ответит данное оповещение?

У одного из сайтов написано: В среднем страницы на вашем сайте загружаются за 4,6 с. (обновлено 22.04.2010). Это медленнее, чем 72 % сайтов. И что? Весь прошлый год в топе просидел, и в этом году ни куда не опустился.

Лучше запретить индексацию в robots.txt, пока не готов контент. Первые 3 месяца я бы не торопился покупать ссылки, но если есть желание, можно начинать подкупать. Ссылки будут учитываться.

WMT новый сайт:

Количество проиндексированных URL: 42

Смотрю выдачу с русского ip - 6

C американского ip - 1

Serg.Chupak:
какие есть варианты прочекать на наличие в соплях конкретной страницы. Только выдачу парсить по запросам с /* ?

В каких соплях? :)

lis:
А вы какуюто закономерность просматриваете??

А нет закономерностей. Разумеется, какие-то технические моменты регулируют это дело, но они очень динамичны. Постоянно подкручивают гайки и меняют подобные параметры. Видимо для того, чтоб дорвейщики ключи не подобрали. :)

Для примера, вставьте в код страницы нового сайта большой объём текста с высокой плотностью коммерческого ключевика (в одну строку) без переносов. После индексации 99% на то, что страница долгое время будет недоступна для поиска, даже если она будет единственной на домене. Но это как говорится сделать страницу явно напоминающую дешёвый дор. Более тонкие параметры вычислить не удаётся, хотя пытался одно время.

lis:
Иногда мне начинает казать что гугл включает в поиск какое то определенное число страниц в поисковую базу для конкретного ресурса т.е. есть сайт есть какие то факторы в соответствии с которыми у сайта должно быть к примеру около 100 страниц в индексе вот гугл и держит в индексе такое количество страниц при этом приоритет отдаться (естественно уникальным) страницам с большИм количеством контента а также в зависимости от количества внутренних ссылок с данного ресурса на эту страницу...

Кто что думает о таком наблюдении???

Не, не то направление. Бывает что проиндексирует новый сайт менее чем из 10 страниц, а в поиске участвуют только 2-3. Или выставит кучу страниц многостраничника, и все сразу нормально ищутся.

lis:
П.П.С. специально не использую термин СОПЛИ...а то полетят кирпичи.

А так называемые "сопли" каким боком здесь? Страница может показываться звёздочкой, но не участвовать в поиске, так же и наоборот.

Можно забанить по маске юзер агенты "Java/1.6.0_04" и подобные. Часть злобных парсеров останется в пролёте. Защиты на 100%, согласен, не существует.

По поводу сабжа, то вряд ли это реально. На сколько мне известно, подобного функционала в гугле нет.

Знаю сайты, контент которых на 100% состоит из ворованного на других сайтах. Как ни странно, эти сайты довольно нормально чувствуют себя в поисковике. Честно сказать не понятно, как вообще работает фильтр за не уник.

Nubasek:
Не знаю по чему, но org гугл по чему то любит

Дело не в org. Домены biz, com и net ни чем не хуже. Просто эти домены не несут привязки к какому-то конкретному региону, а по сему, для них все двери открыты.

Всего: 7889