- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня есть аналогичная ситуация, 2 сайта с общими телефонами, оба есть в некоторых топах выдачи и оба есть в Директе. Учитывая, что склеить могут по стуку и такая склейка совсем тяжелая, нужно клеить самостоятельно. Сайты разные и вполне себе релавантны тематике, клеить редиректом не получится. Есть два варианта, первый - запретить один из сайтов к индексации, тогда не будет аффилиатов, на сайт будут заходить только из Директа. Но так не прикольно, есть же директива Host, только не понятно, что будет, если прописать в роботс сайта2 "Host: сайт1"? В идеале страницы сайта2 будут считаться страницами сайта1, сайт1 добавит страниц, тематичности, траста и т.д. В выдаче будет выдаваться самая релевантная страница с "общего" сайта. Но это в теории, а что получается на практике в таком случае? Я пытал многих, ответа не получил. Придется на собственной шкуре эксперименты ставить. :)
Не знаю актуален ли сервис сейчас, но год назад когда сталкивался с проблемой пользовался им проверка фильтра аффилиатов
Определить фильтр на группу сайтов (/ru/forum/183263)
1. Показываются оба сайта:
"запрос" << url="site1"
"запрос" << url="site2"
2. Показывается один из сайтов:
"запрос" << (url="site1"|url="site2")
есть же директива Host, только не понятно, что будет, если прописать в роботс сайта2 "Host: сайт1"?
host будет работать только если сайты идентичны. Значит один сайт надо убить и потерять трафик, который шел на его собственные страницы.
Перец добавил 11.09.2009 в 16:13
Не знаю актуален ли сервис сейчас, но год назад когда сталкивался с проблемой пользовался им проверка фильтра аффилиатов
Этот сервис не определяет мои сайты, которые на 100% афилиаты.
host будет работать только если сайты идентичны.
Вы лично наблюдали такое?
G00DMAN, я конечно могу ошибаться, но из определения директивы host следует, что она работает только с зеркалами:
Как можно клеить сайты, если они разные? Желания клеить не зеркальные сайты у меня не было, поэтому на свой опыт сослаться не могу.
Перец добавил 11.09.2009 в 16:51
Определить фильтр на группу сайтов (/ru/forum/183263)
1. Показываются оба сайта:
"запрос" << url="site1"
"запрос" << url="site2"
2. Показывается один из сайтов:
"запрос" << (url="site1"|url="site2")
Хороший способ. Параметр &pag=u похоже не работает. На моих сайта и сайтах из старого топика он нигде сейчас не работает.
По "запрос" << (url="site1"|url="site2") у меня странная ситуация.
Там, где только один сайт в выдаче, этот запрос тоже показывает один сайт, т.к. сайты афилированы.
Там, где оба сайта в выдаче (напр, 2 и 82 место), запрос "слово" << (url="site1"|url="site2") выдает "Искомая комбинация слов нигде не встречается", что вообще не логично.
Такое впечатление, что сайты аффилированы только по части запросов, хотя такого быть не должно. Но как пишут здесь выше, похоже такое и правда имеет место быть.
Не понятно теперь как теперь продвигать новый сайт. Старый имеет гораздо лучшие позиции и по некоторым словам уже сидит в топе без раскрутки.
Думаю не трогать запросы, по которым старый сайт уже в топе и крутить новый сайт по тем, которые ниже топ-10.
G00DMAN, я конечно могу ошибаться, но из определения директивы host следует, что она работает только с зеркалами.
Как можно клеить сайты, если они разные? Желания клеить не зеркальные сайты у меня не было, поэтому на свой опыт сослаться не могу.
Ну, определение может быть и достаточно однозначное, но я наблюдал пару чужих косяков с Host, вроде не все с этой директивой просто. Жаль, что наблюдалка поломалась со временем. :)
Как можно клеить сайты, если они разные? Желания клеить не зеркальные сайты у меня не было, поэтому на свой опыт сослаться не могу.
Ну, определение может быть и достаточно однозначное, но я наблюдал пару чужих косяков с Host, вроде не все с этой директивой просто. Жаль, что наблюдалка поломалась со временем.
Зачем клеить аффилированные сайты, это же не зеркала? Если Яндекс посчитает сайты аффилированными, просто они не будут пересекаться в серпах.
Не знаю актуален ли сервис сейчас, но год назад когда сталкивался с проблемой пользовался им проверка фильтра аффилиатов
Давно уже пофиксен баг, который использовал сервис.
Параметр &pag=u похоже не работает.
Неактуален больше, чем вышеуказанный сервис Никспринга.
По "запрос" << (url="site1"|url="site2") у меня странная ситуация.
Там, где только один сайт в выдаче, этот запрос тоже показывает один сайт, т.к. сайты афилированы.
Там, где оба сайта в выдаче (напр, 2 и 82 место), запрос "слово" << (url="site1"|url="site2") выдает "Искомая комбинация слов нигде не встречается", что вообще не логично.
Такое впечатление, что сайты аффилированы только по части запросов, хотя такого быть не должно. Но как пишут здесь выше, похоже такое и правда имеет место быть.
Эта проверка должна работать, но работает нетривиально. :)
Последний раз за аффилированием наблюдал где-то в апреле-мае, это были пациенты Фомы и др. участников форума. Тогда получалось, что ранее аффилированные сайты тусовались в одних и тех же топах, что противоречило выработанному ранее пониманию обсуждаемого фильтра. В последующие апдейты ситуация нормализовалось, т.е. пересечения больше не наблюдались. Объяснить это можно анномалиями, например, отключением фильтра на время тестирования или глюками кэширования.
Перец, если нет тайны, пришлите в личку сайты, запросы и позиции.
Не понятно теперь как теперь продвигать новый сайт. Старый имеет гораздо лучшие позиции и по некоторым словам уже сидит в топе без раскрутки.
Думаю не трогать запросы, по которым старый сайт уже в топе и крутить новый сайт по тем, которые ниже топ-10.
Надо исходить из того, что в серпах в долгосрочной перспективе будет только одна страница из обоих сайтов.
В последующие апдейты ситуация нормализовалось, т.е. пересечения больше не наблюдались.
да сейчас пропали и всё... Причем в последние две недели еще два сайта ушли в аффилиаты. Сайты с совершенно разным дизайном, контактными данными, текстами , хуизами. Причем реальный(не тот который показывается пользователю) хуиз скорей всего и пересекается, думаю только по нему пробили.
Если Яндекс посчитает сайты аффилированными, просто они не будут пересекаться в серпах.
Можете озвучить какие-нибудь предположения о том, как алгоритмически организовано такое непересечение?
Надо исходить из того, что в серпах в долгосрочной перспективе будет только одна страница из обоих сайтов.
А у Вас случайно нет примеров смены аффилиата по запросу с помощью оптимизации?