- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую,
Вот мысль, к которой я пришел, после серьезного выпадения сайта из ТОР 10. В принципе, она не нова, но явного акцента в вопросах\ответах на ней я не видел. Возможно кому-то будет полезно.
Мысль следующая: Гугл учитывает суммарный вес бэклинков и при резком его изменении (стало существенно больше или существенно меньше) происходит наложение какого-то фильтра. По этой причине и не советуют набирать за раз много ссылок из каталогов. Но! и несколько жирных ссылок, одновременно поставленных, тоже могут привести к такому результаты - они имеют существенный вес. Судя по всему, Гугл апроксимирует рост суммарного веса бэков (первая производная :)) и если он в реальности потом не будет совпадать с настоящим, то с большой вероятностью - здравствуй фильтр. Итого: не любит Гугль резких изменений в жизни сайта.
Так что - ставьте жирные ссылки постепенно, лучше растянуть это во времени.
Из позитивных моментов - по свому принципу это временный фильтр, поэтому через месяц-другой ситуация должна начать исправляться.
Сорри, если баян.
Идея интересная, но немного нелогичная. Например, ссылка со страницы PR7-8 намного весомее, чем ссылки с 1000 PR0 страниц каталогов. По Вашей логике получается, что при появлении одной-двух ссылок с PR7-8 на сайт сайт упадет, но опыт посказывает, что сайт только укрепит позиции.
Вот что гугл (иностранный) не любит - это одновременное появление нескольких тысяч ссылок с мусорных страниц PR0 на одну и ту же страницу. Но и этот фильтр действует далеко не всегда.
А появление ссылок с качественных страниц он только приветствует. Часто одномоментно на многих блогах появляются ссылки по какому-то ключевику. Это вполне естественная ситуация, и борьба с ней только ухудшила бы выдачу.
Думаю, что надо поддреживать видимость есстесвенного развия собитий - без сильных скачков.
Думаю, что надо поддреживать видимость есстесвенного развия собитий - без сильных скачков.
думаю да. всё должно быть так, будто никакого стремления продвинуть сайт спецаильно ни у кого нет. просто надо посмотреть на это из головы инженеров гугла.
если он будет придерживаться пессимизации сайта с быстрым ростом беков, то он потеряет много новостных сайтов с ценной и свежей информацией, которая ему нужна как воздух
Давайте не будем забывать, что Гугл заявляет, что не накладвает фильтры и не банит сайты, в зависимости от изменения внешних факторов, в противном случае это превращается в мощное оружие против конкурентов. Купил конкуренту пару восьмерочек, проглал его по каталогам и прощай конкурирующий сайт из топа на несколько месяцев........... Давайте мыслить шире, друзья :)
Идея интересная, но немного нелогичная. Например, ссылка со страницы PR7-8 намного весомее, чем ссылки с 1000 PR0 страниц каталогов. По Вашей логике получается, что при появлении одной-двух ссылок с PR7-8 на сайт сайт упадет, но опыт посказывает, что сайт только укрепит позиции.
Безусловно он укрепит свои позиции - тут все нормально. Но вот представьте, что у вас есть не сильно раскаченный сайт сайт и вы сразу поставили на него 5 ПР7 ссылок. Гугл это нормально подхватит, но запомнит эту скорость набора бэклинков. Если вы в дальнейшем не оправдаете его надежд (он-то думает, что для вашего сайта это нормально набирать каждый месяц по 5 ПР7), то сильно задумается.
Т.е. Гугл учитывает суммарный вес бэков (грубо говоря - это ПР сайта, как он есть в Гугле, а не в тулбаре), а также скорость, с которой этот вес набирается. Если скорость ведет себя неестественно - то это наверняка повод для фильтр - мало ли что. :-)
если он будет придерживаться пессимизации сайта с быстрым ростом беков, то он потеряет много новостных сайтов с ценной и свежей информацией, которая ему нужна как воздух
Не к тому, чтобы отстаивать свою гипотезу :), но данную пример гораздо проще решить через выделение в отдельный сегмент новостных сайтов и блогов и к этому сегменту применять другие правила. Опять же, фильтр связанный со скоростью, применяться к новостным сайтам практически не будет, т.к. средняя скорость бэков у них примерно одинакова, да и пессимизация должна начаться не сразу же, после появления бэков, а только через месяц или около того. Первое время Гугл верит и фильтр не накладывает.
Все имхо :)
Давайте не будем забывать, что Гугл заявляет, что не накладвает фильтры и не банит сайты, в зависимости от изменения внешних факторов, в противном случае это превращается в мощное оружие против конкурентов. Купил конкуренту пару восьмерочек, проглал его по каталогам и прощай конкурирующий сайт из топа на несколько месяцев........... Давайте мыслить шире, друзья :)
Ну это если он был совсем дохлый конкурент :) А если он уже был прокачан, тогда это вряд ли сработает. Давайте сделаем поправку к идее - скорость прироста бэков учитывается тем больше, чем меньше ПР у сайта (т.е общий вес бэков). Тогда все отлично - пока сайт молодой или несильный - за ним внимательно наблюдат. Как только он перешёл определенную грань в развитии (совершеннолетие) - тогда этот параметр учитывается больше.
И вообще, к этому можно подойти как бонусу: нет фильтров. Но если сайт показывает хорошую скорость в наборе сильных бэков - то ему бонус. Если нет - то нет бонуса. Как вам такой подход?
Какой то фильтр есть несомненно.... и сейчас он судя по всему тестируется. Действительно сайты улетают со стабильных позиций, и через месяц - два возвращаются на них. Я бы очень хотел (как и многие) определить причину этого. Но я бы НЕ стал связывать это с теми причинами, которые Вы обозначаете, хотя выглядит это вполне логично. У меня несколько сайтов с вполне стабильным набором беков скачат туда-сюда........ думать будем, или ждать пока Катс расколется в чем дело.
Но если сайт показывает хорошую скорость в наборе сильных бэков - то ему бонус. Если нет - то нет бонуса. Как вам такой подход?
с таким подходом ярким проектам коптить до морковкина заговенья :)