acid_r, Ждать. Иногда долго, но ждать.
ITPuls, В прошлом году мы заказывали рекламмную компанию в яндексе (беннер по запросам в серпе). Расчетная статистика для показов, которую они прислали, и та, что показывал директ - отличались в 3-10 раз.
А почему Вы решили, что я говорю о качественном отличи. Я упоменул тольок метод расчета.
YAGR, Они присылают реальные цифры по показам для каждого варианта запроса
YAGR, Ошибаетесь. Для планирования бюджета, она полностью бесполезна.
Хочеш получить реальные цифры, напиши письмо в их рекламный отдел, закажи рекламную компанию и они пришлют статистику. Очень удивит.
jED R.,
Статистика, это не прогноз. Они показывают усредненныу статистику за последние 3 месяца.
Система расчета у Яндекса реализована по "странному алгоритму".
Если Вы просите показать статистику на фразу "куплю грабли", он покажет сумму запросов с этой фразой
"куплю грабли" + "куплю грабли в Москве" + "куплю грабли дорого" + и т.д.
Рамблер же считает тольок запрашиваемую фразу.
pauk, Статистика Яндекса показывает неверные результаты.
Лучше использовать http://adstat.rambler.ru/wrds/
а для Яндекса результат умножить на 2.3...2.5
Dm,
Возможно я ошибаюсь, но на больших сайта, с >5k страниц (у меня таких 4), прослеживается явное падение переходов по низкочастотникам, при стабильности количества проиндексированных страниц.
А на счет падения количества страниц в базе Я, лично у меня впечатления, что он более плотно взялся за зеркала и мертвые домены. Ведь есть сайты, куда робот не ходил 3-6 месяцев, а сайтов то уже и нет. Дополнительно, возможно, поднят нижний предел объема текста, при котором страница попадает в индекс.
Dm, Ваша идея интересна, но не очень понятна.
Давайте обощенное слово "трафик" разделим на его составляющие.
Пользовательския трафик с поисковика, например Яндекса, складывается из переходов с основного поиска, поиска по картинкам, каталога (если есть), и мелких переходов с остальных разделов.
Переходы с основного поиска, делятся на переходы с серпов высокочастотных запросов и серпов низкочастотных запросов.
Т.к. Именно переходы с основного поиска и создают наибольший трафик, получается, что либо высокочастотники должны упасть, либо низкочастотники....
За высокочастотниками следят оптимизаторы, и говорят, что там все на месте. Остаются низкочастотники.
Чтобы по ним упал трафик, либо люди должны перестать так спрашивать, либо позиции должны поплзти вниз.
Человеческий фактор - почти всегда загадка, а вот падение низкочастотников....Мне кажется, что причина там. Может быть имеено в изменениях принцыпа ранжирования низкочастотников вызвало такую тенденцию?
Anastasia, Чтобы склейка прошла успешно и быстро, желательно второй домен припарковать к томуже хостеру, что и первый, и просто прописать роботс
Anastasia,
Главное, какая цель мероприятия?
Теперь по сути, как Вы хотите склеивать домены? Слеить или не склеить, решает робот + модератор как Яндекса так и Гугля, не факт что это произойдет.
Переназначение главного из зеркал, тоже требует не мало времени.
Обратная задача, по расклейке, может занять времени столько же, сколько займет создание такого же ПР и тИЦ для нового домена. И по логике, тИЦ и ПР останутся у главного зеркала.
Из теории, если происходит слейка, то робот ведет переиндексацию, а соответственно и все расчеты, тольок для основного сайта. Зеркала он просто помнит, чтобы туда не ходить. тИЦ и ПР, по логике, должны считаться суммарно, поэтому, они перейдут на новое главное зеркало. Мне кажется что это тоже займет уйму времени.