- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как думаете, может ли быть один из факторов наложения данного фильтра на сайты, общая ссылочная база у сайтов? Я не говорю о 100% схожести.
У меня была такая ситуация пришлось удалять все купленные ссылки.
Давайте лучше подытожим:
Пока общая черта фильтра, имхо, одна: одинаковые контакты.
нет, это не так, склеил сайты с разными контактами, проще говоря конкурентов - Интернет-магазины. Проблема возможно в существенной массе схожих описаний на страницах этих сайтов. Но тут Яше следовало хотя бы примерно определять первоисточник этих описаний, а не тупо аффилировать.
Проблема так и не решилась, пришлось вылезать на 1 первое место, чтобы быть вообще в выдаче.
У меня все хуже 4 ре сайта продвигаются по пересекающимся ВЧ запросам, судя по анализу выдачи 2 из них под говнофильтром.
Резюмируя прочитанную ветку и полученный опыт хочу составить список ассиметричных действий,
. Если фильтр не на всегда это имеет смысл сделать. Список можно обсуждать и пополнять
1. Убираем с сайтов одинаковые адреса, телефоны.
2. Меняем\убираем данные о домене whois
3. Убираем перелинковку
4.
...
Ждем счастья в виде выхода из под фильтра
после последнего апа высокочастотник вернулся из этого фильтра.
после того как он ранее попал по этот фильтр я снял высокочастотник-однословник с продвижения (по другим запросам продвигал дальше)
возможно повлияло то что все ссылки были сняты, либо что-то еще
хуиз и контактная информация (адрес и телефон) неменялась, до сих пор остается пересекающейся.
да, еще
времени между снятием ссылок прошло менее недели.
Накладывается на страницы аффилированных сайтов (в т.ч. сеток) при их пересечении по одному запросу, т.е. в серпе показывается только один из сайтов, что похоже на группировку страниц поддоменов.
Об этом были разговоры с коллегами на конференции, первым описал Гриша Селезнев на ярушке.
Определить фильтр на группу сайтов можно следующим образом.
1. Показываются оба сайта:
"запрос" << url="site1"
"запрос" << url="site2"
2. Показывается один из сайтов:
"запрос" << (url="site1"|url="site2")
У меня очень похожая ситуация, правда ничего не совпадает кроме наименований артистов и списка концертов на первом листе, также телефонов, тексты везде переработанные, все хуиз разные, серваки разные, сайты крайне разные и разных лет. Телефоны и имена артистов одни и теже. агентств разные как и хост и домены.
Однако с последним алгоритмом 18 января вылетели 2 остался один в топ 3-5 и вч вылетели некоторые низко.
Остальные ищутся по другим слова. Проблема в том что они все три крутились одним линкатором и ссылки с разных доменов но одинаковые на них стояли. Вылетели те что стояли одинаковые и массированно по штук 50)) а тот на который стояло 16 ссылок и по паре концертов плюс широкий спектр линкаторских ищется по всем словам.
Что делать? Составить разный первый лист на них? с разными ключами? и разным списком мероприятий?
Сайты не линкованы между собой, боже упаси... Содержание все переработанное. Я вижу новый алго в этом. Убей меня, наверное засекают одинаковые ссылки
Если б попал линкатор под фильтр то вылетели все, а вылетели только те, на которые стояло много одинаковых с сапе. Жалко терять первые позиции на гугль, а то сняла б и поставила под другим сочетаниям.
Немного не в тему: как теперь то блин ставить ссылки, убей не пойму. Заметила различия на мн и единственное число и склонения. хорошо идут - 2-3 словные сочетания.. У меня ж были длинные предложения
не подскажет кто случаем программку для отслеживания в нете текста аналогичного заданному, а то процесс этот хочется как-то оптимизировать
У меня все хуже 4 ре сайта продвигаются по пересекающимся ВЧ запросам, судя по анализу выдачи 2 из них под говнофильтром.
Резюмируя прочитанную ветку и полученный опыт хочу составить список ассиметричных действий,
. Если фильтр не на всегда это имеет смысл сделать. Список можно обсуждать и пополнять
1. Убираем с сайтов одинаковые адреса, телефоны.
2. Меняем\убираем данные о домене whois
3. Убираем перелинковку
4.
...
Ждем счастья в виде выхода из под фильтра
И что Вы хотите сказать он сам выйдет?))))))))))
Кажется надо снять ссылки и поменять слова на другие ключевики, и можно остальное не трогать...НО трафика то не будет такого соответственно и такого объема...иттить
Чтобы не попасть под фильтр пересечения аффилированных сайтов, делаем просто...
1. регистрируем домены на разных людей
2. в контактах лучше указывать разные телефоны
3. размещаем на разных хостингах
у меня конкурент так и делает по очень конкурентному запросу... 3 сайта в ТОП 10.
Аналогично столкнулся с данным вопросом, что имею:
3 сайта, идентичные запросы, все были в топ5(10). Контакты на всех единые. Структура немного схожа, хуизы разные.
Сайт А. Имеет наибольший бюджет (в сравнение с сайтами В и С), контент не схожий с остальными 2мя сайтами. Расположен на отдельном IP. Стоит ссылка на сайт B.
Ссылки(бюджет): Преимущество во внутренних (сравнительно с сайтами В, С) и второе место по мордам (сравнительно с сайтами В, С)
Сайт B. Средний бюджет (в сравнение с сайтами А и С), имеет схожий контент с сайтом С, расположен на одном IP с сайтом С.
Ссылки(бюджет): Лидер по мордам и 3е место по внутренним (сравнительно с сайтами А, С)
Сайт С. Самый низкий бюджет, имеет схожий контент с сайтом В, расположен на одном IP с сайтом В.
Ссылки(бюджет): 2е место по внутренним (сравнительно с сайтами А, В) и 3е место по мордам (сравнительно с сайтами А, В)
После апа 18.01, что "имею"🙅:
Сайт В – выпал полностью, а сайты А и С разделили в выдаче 50\50 (уточню – в точности до 1запроса, 50 на 50), на сайт А припадает более конкурентная часть запросов. Замечу, позиции на сайтах А и С не поменялись ни по одному запросу. По обращению к Платону, насчет сайта В, ответ – все хорошо. Запросы сч(конк.), нч. Беру во внимание возможность “по стуку”..
Возникшие вопросы:
-Исходя из чего Яндекс сделал именно такой выбор, оставил 2 сайта и роздал выдачу поровну, а не выкинул сайт В, С совсем, оставив сайт А…
-Могла ли повлиять ссылка с сайта А на сайт В на вылет сайта В…
- Возможно морды, повлияли на мнение Яши насчет сайта В? Или тут вопрос внутренних…