Alex1234

Рейтинг
30
Регистрация
14.04.2006

Скиньте, пожалуйста, информацию в личку.

Zlo_606ep:
Сделайте ссылки текстом, в css впишите свои картинки в фон, спозиционируйте текст за пределами блока ссылки (у ссылки фиксированные размеры, свойства: display:block;overflow:hidden; текст будет выходить за пределы блока-ссылки и скрываться, а в фоне будет обычная картинка с надписью)

А не будет ли это рассмотрено как злобный хак? Ведь текст на картинке не всегда будет совпадать с анкором. Санкции могут последовать?

viktorleo:
а вы представьте, что по определенной тематике произошла амнистия, и сайтов эдак 20 вверх прорвалось, и по весу они оказались больше, чем сайт ранее находившийся в ТОП-10(20)...вот и ушел сайт на позиций так 15 вниз ....

Тоже вариант. Но в моем случае основная масса осталась на месте, а провалился только мой сайт. А так, конечно, объяснение хорошее.

Serboy:
А вы не думаете, что у других сайтов (как у соседей, так и у ссылающихся) может что-то меняться? :)

Думаем. Конечно может. Вопрос в гобальности изменений. Если они +/- 20-30% - это нормально. А если 300-400% - то скорее всего собака порылась где-то в другом месте.

По-крайней мере, я так думаю.

greenwood:
с таким подходом ярким проектам коптить до морковкина заговенья :)

Ладно, ладно - сам понимаю, фактов мало, да и неоднозначно все.

Но что-то тут точно есть! ;)

Sergey T:
Какой то фильтр есть несомненно.... и сейчас он судя по всему тестируется. Действительно сайты улетают со стабильных позиций, и через месяц - два возвращаются на них. Я бы очень хотел (как и многие) определить причину этого. Но я бы НЕ стал связывать это с теми причинами, которые Вы обозначаете, хотя выглядит это вполне логично. У меня несколько сайтов с вполне стабильным набором беков скачат туда-сюда........ думать будем, или ждать пока Катс расколется в чем дело.

Та же ситуация. Есть сайт со стабильными сильными бэками. После установки - по многим запросам уверенно вышел в ТОП10. Потом где-то через месяц слетел сначала на 20 вниз, потом через неделю еще на 20. Никаких оптимизаций дополнительных не делалось, бэки оставались теми же. Сначала грешил на потерю линки с en.wiki - восстановил, но толку мало. И только через месяц ситуация потихоньку стала восстанавливаться. Поэтому такая гипотеза и возникла.

Ладно, в самом деле, лучше подождать Катса, может прольёт свет :)

Sergey T:
Давайте не будем забывать, что Гугл заявляет, что не накладвает фильтры и не банит сайты, в зависимости от изменения внешних факторов, в противном случае это превращается в мощное оружие против конкурентов. Купил конкуренту пару восьмерочек, проглал его по каталогам и прощай конкурирующий сайт из топа на несколько месяцев........... Давайте мыслить шире, друзья :)

Ну это если он был совсем дохлый конкурент :) А если он уже был прокачан, тогда это вряд ли сработает. Давайте сделаем поправку к идее - скорость прироста бэков учитывается тем больше, чем меньше ПР у сайта (т.е общий вес бэков). Тогда все отлично - пока сайт молодой или несильный - за ним внимательно наблюдат. Как только он перешёл определенную грань в развитии (совершеннолетие) - тогда этот параметр учитывается больше.

И вообще, к этому можно подойти как бонусу: нет фильтров. Но если сайт показывает хорошую скорость в наборе сильных бэков - то ему бонус. Если нет - то нет бонуса. Как вам такой подход?

greenwood:
если он будет придерживаться пессимизации сайта с быстрым ростом беков, то он потеряет много новостных сайтов с ценной и свежей информацией, которая ему нужна как воздух

Не к тому, чтобы отстаивать свою гипотезу :), но данную пример гораздо проще решить через выделение в отдельный сегмент новостных сайтов и блогов и к этому сегменту применять другие правила. Опять же, фильтр связанный со скоростью, применяться к новостным сайтам практически не будет, т.к. средняя скорость бэков у них примерно одинакова, да и пессимизация должна начаться не сразу же, после появления бэков, а только через месяц или около того. Первое время Гугл верит и фильтр не накладывает.

Все имхо :)

Zonk:
Идея интересная, но немного нелогичная. Например, ссылка со страницы PR7-8 намного весомее, чем ссылки с 1000 PR0 страниц каталогов. По Вашей логике получается, что при появлении одной-двух ссылок с PR7-8 на сайт сайт упадет, но опыт посказывает, что сайт только укрепит позиции.

Безусловно он укрепит свои позиции - тут все нормально. Но вот представьте, что у вас есть не сильно раскаченный сайт сайт и вы сразу поставили на него 5 ПР7 ссылок. Гугл это нормально подхватит, но запомнит эту скорость набора бэклинков. Если вы в дальнейшем не оправдаете его надежд (он-то думает, что для вашего сайта это нормально набирать каждый месяц по 5 ПР7), то сильно задумается.

Т.е. Гугл учитывает суммарный вес бэков (грубо говоря - это ПР сайта, как он есть в Гугле, а не в тулбаре), а также скорость, с которой этот вес набирается. Если скорость ведет себя неестественно - то это наверняка повод для фильтр - мало ли что. :-)

elPromo:
Alex1234, в принципе, в текущей версии уже можно отключать поля (попробуйте щелкнуть на иконку в левой части заголовков таблиц - появится менюшка, в которой можно выбрать нужные для показа поля). Если все равно неудобно, думаю переделка не займет много времени. Возможно тогда выпустим упдейт (текущие базы не будут затронуты). Спасибо за комментарий :)

Нашел, это хорошо :)

Тогда вернуть все обратно в один ряд + добавить возможность указывать порядок полей - и вы будете наилучшим предложением на данный момент ☝

Всего: 91