Axeron

Рейтинг
2
Регистрация
20.08.2005

Вот например в театральной тематике по событиям бывает очень резкий скачок, который связан с рекламой на телевидении или на билл бордах.

Запросы такого плана являются среднечастотными в месячном интервале, а в интервале недели могут быть очень даже высокочастотными.

Вот на МАКС 2005, например, по 4500 запросов в день было!

Так что подсчитать CTR для переранжирования таких запросов просто глупо, т.к. к моменту новой выдачи это уже не актуально будет.

Кстати на счёт кликов первой десятки, у меня 5 сайтов по некоторым запросам выходят в серп одновременно, ну так народ не стесняется особо кликать :-) все окучивают за раз, в маркетинге называется (Иллюзия выбора)! :p

Так что, скорее всего, CTR нужен для чистки высокочастотников или просто для общего развития сотрудниковю

Странно как-то он пересчитался, на мелких сайтах упал, на крупных остался прежним и выдача тоже старая. Видимо пока в каталоге не сменится, не пересчитает нормально.

Кстати, а кто знает порядок пересчёта, что первым пересчитывается Баннерочек денюжки, Яндэкс Бар, каталог?

Может кто подскажет закономерности, пожалуйста.

Вот допустим такую ситуацию, когда на сайт заходят десятки тысяч уникальных айпишников в день из поисковиков.

А как они в поисковик попадают это большой вопрос.

Можно легко накрутить заходы по ключевым словам просто разместив в спаме либо прямую ссылку с запросом в поисковик, либо слова ищите нас по словам: "Накрутка сайта".

Ну и программу "Хамеллеон", которая будет по открытым проксям скакать и кликать тоже не сложно написать (проверено на Директе, работает ;-).

А что на счёт офлайн рекламы, которая также делает сайт конкурентным.

Здесь так тупо с рейтингованием поступать нельзя!

Вот идея Рамблера со счётчиком на сайте, который всё учитывает, является самой интересной, т.к. о рейтинге сайта надо судить не только по заходам с поисковика по ключевой фразе, а и по общему ядру посетителей.

А качественным скачком могла бы стать реализация в поисковой системе механизма распознавания тематики сайта с жесткими условиями наличия определённого семантического ядра.

Или взвешанная выдача с учётом нескольких поисковых систем, если не ошибаюсь, то как на ливинтернете.

Или организация группы независимых экспертов (компаний 150), которые смогут рейтинговать выдачу по строгому регламенту и отвечать за свои действия, причём только по механизму штрафов, а не бонусов (хорошие сайты, без нарушений всегда выходят вверх).

Ну и можно, всё сразу!

Вот на моём опыте такое было, что сайт действительно не индэксировался, когда много перекрывали кода. Яндэкс всё индэксирует, даже то, что в noindex, а потом, видимо, анализирует и по своему усматрению выкидывает.

Я вот пришёл к тому, что Вёрстку основную сайта нужно оставить вне тэга. А вот отдельные дивы можно загонять в noindex.

Кстати после наших рассуждений, желательно всё таки закрыть </noindex>, а то вдруг не проиндэксирует форум! :p

Только мёртвые с серпами стоятъ!

Вот что заметил! На сайтах близнецах с одинаковым количеством и качеством ссылок наблюдается полное расхождение в результатах выдачи. Один сайт вообще упал вниз. Отличия в том, что на нём выше плотность ключевых слов.

А вот идея со сбоем очень интересна, т.к. если кто не заметил, то в среду-пятницу Яндэкс колбасило неподетски. Он даже не грузился местами. И предположение о беклинках тоже на это указывает. И количество документов в базе.

И, возможно, есть проблема интеграции быстрого бота с тормозным старым.

А вообще-то Яндэксоиды должны ответить сами, по хорошему, а то мы тут перенервичаем все. Яндэксоиды будте гуманоидами. :p

Вот насчёт отваливания бэклинков у меня не поотваливались качественные линки с тематических ресурсов (может т.к. их меньше то и не попали в эту статистику). А помойки (доставшиеся по наследству) упали серьёзно.

А вот ссылки нетематические с заглавных страниц сайтов с большим тиц надо банить жестоко! Я вот даже на хотлоге такой произвол видел при анализе одного сайта.

А то народ уже контент писать разучился совсем. Сделал страничкек повторяющихся кучку, сквозных ссылок понаставил, вот тебе и релевантный поиск по тройной цене. И ограничивать их количество до 5 шт. в аут.

Я понимаю, что SEO разные бывают (злые-глупые и умные), но контент и ВИЦ должны рулить больше, чем ссылки не по тематике.

Может тэг новый ввести для робота, который тематику читать будет.

Гадать бессмысленно надо копать!

А вручную сортировать это прикольная идея, кому платить-то? :p

Я вот свои сегменты посмотрел и увидел, что ссылочному ранжированию с сайтов, которые являются "полумерами" (односторонние массовые каталоги, системы ссылочного обмена, линкаторы, рингаторы и прочая лабуда) приходит конец. Те сайты, которые у меня использовали такие системы жутко упали, а те, которые честно и по тематике менялись ссылками возрасли. Такое впечатление, что наложены какие-то штрафы на домены за ссылки с таких ресурсов (надо конкурентов туда бесплатно прописать :-) Я сам пострадал по высокочастотникам, но надеюсь, что Яндэкс делает правильные шаги к разрешению проблемы заспамленой выдачи. Ну ещё из-за выдачи кажется что Яндэкс начал учитывать возраст сайта. Ждём понедельника, а пока копаем и копаем вглубь.

Смешно будет всё это сотрудникам Яндэкса читать если сбой :-)

12
Всего: 18