- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Попросили разобраться меня тут с сайтами, которыми некогда я занимался. Попало под фильтр с десяток сайтов завода производителя и нескольких его диллеров.
Что имеем: не сетка, не говносайты-сателлиты, не шаблонка, не перелинковка, сайты на процентов 30...70% с уникальным текстовым и графическим контентом.
Обратите внимание: сайты конкурировали между собой! Отсюда: сайты принадлежат разным людям/фирмам, расположоны на разных хостерах, на разных ip. Никакой общей, или частично, ссылочной базы, т.к. продвигались 4 разными промогрупами и парой фрилансеров. Никакой ссылочной связи между собой (ну может 2...3 одного диллера). Телефоны везде разные, адрес на процентов 50% идентичен.
Под фильтром: официальный сайт предприятия; старейшие сайты; 2 сайта из ЯКа.
Не под фильтром: молодые, наиболее бюджетные в ссылочном плане сайты от разных промогрупп, с наиболее уникальными адресными частями.
Что больше всего меня шокировало: ВСЕХ "выставили" из "директа". Похоже осталься назафильтрованный, но он идет по очень узкой группе запросов. Т.е. "директ" занимается самобичеванием - уменьшает свою прибыль - биды сейчас должны упасть, т.к. они подымались исключельно в конкуренции между сабой. Одно радует: это сделанно точно не ради денег 😂😂😂
После часового анализа, пока следующие мои выводы на "скорую руку":
1) Фильтр накладывается на некое, общностное для группы сайтов, ядро запросов. К примеру, один сайт из под фильтра выходит в ТОР по слову, по которому другие не продвигались На другом сайте есть новая продукция - которая не появилась у других - то же "зеленый свет". Т.е. нет никаких оснований пологать что фильтр ложится на сайт в целом;
2) Хотя как вариант, исходя из вышесказанного и не противоречащие ему - фильтр проще: он просто выдает один сайт из "меченной" группы на запрос. В любом случае;
3) Так как в выдаче, на "вакантные места", полно всплыло всякого шлака (доски объявлений, промостатьи под зафильтрованные сайты и т.п.) с содержанием все тех контактных данных и ссылок на сайты - фильтр накладывается на определенную группу сайтов, которые наиболее активны. Мелочевка прошла сквозь пальцы;
4) Директ - не ведет себя как самостоятельное подразделение, как иногда любят декларировать. Единый комплекс санкций и мер и по выдаче, и по директу.
5) Фильтр, скорее всего, нифига не автомат. По крайней мере в стадии попадания под него. Ситуации несколько лет, никаких резких движени в последнее время, сплошная стабильность.
А как вы определяете наличие такого фильтра ?
Просто по способу ТС для моих проектов фильтр не определяется, а все равно такое ощущение, что он наложен...
ramax, обсуждали же! С начала поглядите. Вот пример как раз на слове "фильтр":
с фильтром: http://www.yandex.ru/yandsearch?text=%D1%84%D0%B8%D0%BB%D1%8C%D1%82%D1%80
без http://www.yandex.ru/yandsearch?text=%D1%84%D0%B8%D0%BB%D1%8C%D1%82%D1%80&pag=u
Разница тут в одном сайте. Он и под фильтром.
Странно... сегодня наткнулся, в образовательной тематике по очень конкурентному слову для данной тематики, первые два места занимают сайты с одинаковыми адресами, телефонами и хуизами... 😕
Пример могу скинуть в личку.
1) Фильтр накладывается на некое, общностное для группы сайтов, ядро запросов. К примеру, один сайт из под фильтра выходит в ТОР по слову, по которому другие не продвигались На другом сайте есть новая продукция - которая не появилась у других - то же "зеленый свет". Т.е. нет никаких оснований пологать что фильтр ложится на сайт в целом;
Готов оспорить. У меня допустим из за специфики тематики много сайтов, как по одному так и по разным семант. ядрам. Так вот по любому запросу, будь то название фирмы, адрес, товар или услуга, в выдаче присутствует лишь наиболее релевантный. Так же любопытный факт, есть 2 сайта под фильтром, с одного стоит ссылка с уникальным анкором на другой, проверял на непот(когда еще возможно было проверить), находился только донор, хотя ссылки на другие сайты, которые не под фильтром работали. При добавлении &pag=u появился и акцептор. Мое имхо: однозначно на сайты целиком, но это лишь мои наблюдения.
испугался начал проверять 2 сайта клиентов. больше года с ними работаем:
1.сайты на одинаковых цмс-ках
2. дизайн абсолютно разный
3. контент Очень похожий (включая главную)
4. доменные зоны - один ру, второй - ком. хостеры разные соответственно ИПи разные
5. хуизы разные
6. контакты, название фирмы - один в один
продвигаются в основном по разным запросам, но есть и пересечения. причем как по однословникам (не особо конкурентным) так и по многословникам. так вот в выдаче (тьфу, тьфу чтоб не сглазить) по многим этим пересекающимся сайты идут один за другим в выдаче.
n00b добавил 07.02.2008 в 17:37
логично предположить, что уникальность контента в компетенции другого фильтра. основываясь на своем примере рискую предположить, что один из решающих параметров при наложении фильтра даже не контактные данные (что вроде бы логичнее всего), а данные IP и whois. Вернее так - одинаковые телефоны и т.д. - это сигнал, а окончательное решение накладывать или нет принимается по результатам проверки вышеозначенных параметров.
Накладывается на страницы аффилированных сайтов (в т.ч. сеток) при их пересечении по одному запросу, т.е. в серпе показывается только один из сайтов, что похоже на группировку страниц поддоменов.
Об этом были разговоры с коллегами на конференции, первым описал Гриша Селезнев на ярушке.
Определить фильтр на группу сайтов можно следующим образом.
1. Показываются оба сайта:
"запрос" << url="site1"
"запрос" << url="site2"
2. Показывается один из сайтов:
"запрос" << (url="site1"|url="site2")
А как можно это проверить? Подскажите пожалуйста
Сделать свой запрос в Яндексе, затем в полученный урл добавь "&pag=u" без кавычек - получится немного другая выдача. Если в этой "немного другой" выдаче сайт, который подозревается в наложенном фильтре занимает достойные позиции, а в обычной нет, то скорее всего сработал этот фильтр.
Это общеупотребляемый способ, который правда как-то странно работает. Нефильтрованные сайты с при поиске с этим параметром тоже интересно пляшут ...
Всё ниже перечисленное лишь моё мнение:
Можно попробовать подумать, на что должны были ориентироваться люди, создающие этот фильтр:
Для того чтобы не было возможности злоупотребления фильтром конкурентами – надо исключить эти возможности.
Что может конкурент ?
Конкурент может зарегистрировать домен на том же хостинге с абсолютно таким же Whois (я не пробовал дублировать все паспортные данные, фамилии и т.п. при регистрации домена, но они ведь не проверяются при регистрации, значит вписать можно что угодно). Значит Whois, IP и т.п. не должны являться причинами для попадания под фильтр.
Конкурент может сделать похожее содержание, структуру сайта и т.п. Значит это тоже не должно учитываться. Надо учитывать то, что конкурент никогда не будет делать. А конкурент никогда не будет прописывать те же контактные данные. Можно конечно вписать где-нибудь незаметно контактные данные конкурента, а свои сделать картинкой, но это не спасёт от модераторов.
Значит под фильтр должны попадать сайты организаций с общими контактными данными.
Фильтр работает полуавтоматом. То есть человеческий фактор должен присутствовать, иначе будет очень много ошибок и неправильных аффиляций при его работе.
Вообще у меня следующее предположение по этому (и не только) фильтру по поводу именно полуавтоматической работы: Робот проходит по сайтам, собирает информацию. Потом вся информация обрабатывается ….. бла бла бла и т.п. Во время обработки часть сайтов помечается алгоритмом как подозрительные и эта пачка сайтов автоматом отправляется модераторам на проверку (или сайты по стуку). Модеры бегло проверяют и решают применять ли фильтр. А часть сайтов во время обработки попадают скорее всего под автоматический фильтр. Это скорее всего те сайты, где есть явное совпадение в контактных данных. Конечно же люди могут тоже ошибаться и поэтому эти сайты снимают из под фильтра
Всё вышеперечисленное конечно же в лучшем случае. Понятно, что без человеческого фактора фильтр будет работать неправильно и аффилировать не те сайты, так как чёрные методы устранения конкурентов получают всё большее распространение.
Если верить людям, отписавших на предыдущих страницах – фильтр часто ошибается и фильтрует не то. Это значит что фильтр в большинстве случаях работает автоматом и модерам отправляется с пометкой «подозрительные» малая доля сайтов или сайты по стуку.
Вообще если б фильтр работал автоматом, то под аффилирование попадали почти что все сайты, на которых есть например контактные данные веб-студи, которая делала эти сайты.
Вообще если б фильтр работал автоматом, то под аффилирование попадали почти что все сайты, на которых есть например контактные данные веб-студи, которая делала эти сайты.
Это одно из сомнений не в пользу выше Вами сказанного...