LiveFlame

Рейтинг
8
Регистрация
03.10.2008

Вроде были там какие-то боты Эдвордсные, которые чего-то ходють и смотрють... Но я уже как-то подзабыла.... Мммм, вроде у эдвордс есть боты, которые ходят на целевые страницы, их сканят и проверяют на релевантность... Что-то вроде этого.

Видимо, какую-то часть трафа от роботов Аналитикс таки фильтрует, иначе заходов на некоторые страницы было бы далеко не 1 в месяц.

В принципе, что бы получить более менее трезвую оценку о трафике, нужно собирать статистику с нескольких источников и делать выбирать некий средний показатель, что бы получать более адекватную оценку. На мой взгляд гугл адекватен и аналитику в 90% случаев можно верить, если сделать допушение, что статистика в принципе это некий опосредованый показатель, не претендующий на истину в первом лице.

Кстати, еще заметила такую тенденцию... Аналитик обычно показывает статистику с отставанием на день. Если статистику за предыдущий день, смотреть каждый день, а потом , допустим, посмотреть статистику за неделю, то цифрерки будут отличаться (одна и та же статистика за один и тот же день, но просмотренная позже). По посещениям не замечала разницы, а вот в отношении продолжительности этих посещений очень даже. Обычно на след день он показывает что-то вроде 1,30 мин (к примеру), а через недельку на тот же день показывает 4,3 мин. Т.е. Гугля довольно медленно собирает и обрабатывает статистические данные.

По-моему, если я, конечно, ничего не путаю, показатель отказов никак не влияет на поисковую выдачу, а если и влияет, то весьма опосредованно. Это скорее оценочный показатель качества вашего ресурса.

Т.е. если пользователь вошел на страницу, не нашел там ничего из того, что искал в течении 10 сек и закрыл - отказ.

В принципе, поисковая система может сделать из этого какой-то вывод, например, что страница не релевантна какому-то запросу, но, по-моему личному мнению, релевантность не единственный фактор, из-за которого пользователь может закрыть страницу. Тут еще важна структура самой страницы, как на ней лежит информация, как она выглядит... Допустим, я никогда не понимала почему в сети столько буржуйских сайтов, на которых невозможно найти что-то в грудах рекламы и баннеров.

Прежде чем бить тревогу и делать из этого показателя какие-то выводы, советую еще обратить внимание на то, откуда пришли недовольные вашей страницей пользователи. Вполне возможно, что кроме всего прочего, это те пользователи, которые не являются вашей целевой аудиторией, а страница может быть и вполне себе релевантной, и правильно организованной, и красивой... Но не совсем нужной пользователю. К сожалению, далеко не все могут четко и правильно сформулировать чего они хотят найти в конечном счете. Даже у меня нередко получается только с 10 раза =) Из этого можно сделать скорее какие-нибудь выводы относительно полезности такого источника посещений для вас.

Это нормально и действительно не ново.

Если на сайте постоянно что-то меняется/удаляется/добавляется, значит сайт активно развивается.

Жаль у меня нету особого поля для экспериментов, потому что по логике, если сайт постоянно развивается, т.е. улучшается, то увеличение ссылочного выглядит вполне естественным, что уменьшает риск санкций.

О, у меня странички начали возвращаться в индекс...

Либо у гугла действительно временные проблемы, либо шаманства с сайт-мап дали результат...

LiveFlame добавил 02.12.2008 в 14:33

Обана... А я сразу и не заметила... У меня апнулся ПР некоторых страниц... Может потому они и вылетали из индекса?

У меня пока что не было никаких сообщений о xss.

Я просто уже думаю... Начинать беспокоиться или просто гуглю штормит и в течении месяца/двух он очухается?

Я кстати тоже такую тенденцию заметила. По посещениям страниц, ан которые в принципе не ведут ссылки с сайта...

Думется мне, что гугляАналитикс еще ко всему прочему и роботов с их заходами на страничики считает. Роботы ж и под посетителей косить могут (и косят).

Трудно сказать уникальный он или нет =) Большую часть сайта наполняла не я... И учитывая греховность наших манагеров на этот счет, думаю что 50/50

Вот, кстати, у меня та же проблема =) выпадют, конечно, не тысячи страниц, потому что у нас их всего меньше 200, но в индексе осталась только половина. Соотвестственно, и от беков осталась только половина...

И сайт-мап есть и в роботе все шоколадно... Ан, нет.

Все бы ничего, да только сегодня к пропаданию страниц еще и грохнувшиеся позиции присоединились =)

Может по поводу "грамотного" сайт-мапа и шаманств расскажут? >_> Я имею в виду, что есть грамотный сайт-мап и по-подробнее про шаманства...

На мой взгляд 1-2 позиции в пределах страницы - не такая высокая погрешность, как разница между первой 10 и 150 местом =)

Лично у меня расхождения были не очень большими... Позиции отиличаются, но в пределах 1 страницы.

1 234
Всего: 35