- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Во всех постах в поддержку квот приводят статистику из WMT. А вы не думали, что это просто особенность отображения статы в вебмастере?
Это уже обсуждалось. Вопрос округления данных. Маловероятно, по причине сопутствующих явлений. И существует отклонение от других ПС в недельных и у некоторых в сезонных колебаниях. Например трафик у сайт в выходные меньше в 3 раза, а переходов с гугла всего на 15-20% меньше.
Я в последнее время начинаю подозревать и яндекс в таких делах.
Ситуация в следующем сайт растет и если летом соотношение трафика в будний/выходно было 3/1, то сейчас 2/1 мне могут возразить-дачники вернулись. Но у нескольких конкурентов стоит счетчик от li и посмотреть их трафик можно, а у них пропорция сохранилась. :(
Это уже обсуждалось. Вопрос округления данных. Маловероятно, по причине сопутствующих явлений. И существует отклонение от других ПС в недельных и у некоторых в сезонных колебаниях. Например трафик у сайт в выходные меньше в 3 раза, а переходов с гугла всего на 15-20% меньше.
Мысль понятна, но как в данном случае работает алгоритм? Трафик на сайт идет в меньшем объеме, гугл начинает переживать и... что? Поднимает запросы в топ на несколько позиций? Или поднимает нч запросы из небытия в топ?
Да, такие несостыковки встречаются, но если это даже и квотирование, то как это можно реализовать?
Мысль понятна, но как в данном случае работает алгоритм? Трафик на сайт идет в меньшем объеме, гугл начинает переживать и... что? Поднимает запросы в топ на несколько позиций? Или поднимает нч запросы из небытия в топ?
Да, такие несостыковки встречаются, но если это даже и квотирование, то как это можно реализовать?
Точно сказать? ХЗ я не сотрудник гугла и исходников не видел. Но речь не идет о трафике, речь идет о количестве показов -есть некоторая разница. :)
В том случае если Ваши позиции в серпе не позволяют выбрать квоту показов, то для Вашего сайта ее как бы нет. Когда Ваш сайт начинает быстро расти, а он по мнению гугла заслуживает определенного количества показов и в какой-то момент количество показов по серпу оказываются больше чем выделенная квота, тогда и начинаются чудеса.
Квота на показы не связана с позициями сайта в выдаче (или малозависима от них) она связана с какими-то внутренними факторами сайта и/или искусственным снижением ее как в случае пингвина.
Я, кстати, о том же. Сколько бы мне графиков не рисовали, все-равно не хочется верить, что гугл уже совсем сошел с ума.
Я, кстати, о том же. Сколько бы мне графиков не рисовали, все-равно не хочется верить, что гугл уже совсем сошел с ума.
Почему сошел с ума?
Чем плох такой инструмент с точки зрения ПС? Дальше идут предположения…
Берем сайт и смотрим объем полезного текста, его качество, возраст и тп на основание данного анализа присваиваем ему количество баллов -принимаем что 1 балл =1 показу. И все сидим ровно, время от времени пересчитываем.
Теперь серп рассчитываем по простому максимально быстрому алгоритму (можно пересчитывать хоть раз в день) и считаем количество показов. Если количество показов по серп больше, чем количество баллов (показов) рассчитанного по внутренним факторам, то этот сайт вышел за рамки алгоритма и этот сайт и его ссылочную массу необходимо проверить более серьезно. После проверки: "а ссылочное у него плохое" получи пингвина, или тексты у него переоптимизированные -"панда". Чем плох такой алгоритм? Он очень серьезно снижает издержки.
Все это конечно гипотезы, но очень похожие на правду. Вопрос в том, что реализация не очень.
---------- Добавлено 27.11.2012 в 01:48 ----------
вот такое порно у меня)) не пойму что это))
Ну на первый взгляд с квотированием никак не связано. Скорее с индексированием и серпом.
можно ли как-то стабилизировать траффик?
Хз. Я думаю, что такие скачки как у Вас не имеют никакого отнощения к квоте. Это что-то другое. Я бы даже сказал, что с точки зрения потолка у Вас с сайтом все относительно хорошо. Смотрите на серп, дубли тексты и тп.
Если сайт молодой, то это может быть алгоритм проверки вебмастера на "вшивость", может быть проверка ПФ, да все что угодно…
Ps и не пингивин точно, а все остальное лечится :)
Вы часто ищите сайты, которые не помните? То есть, вы помните, что в гугл ввели запрос и нашли сайт и снова также делаете. Это грубое сравнение, но делать квоту это идиотизм. Еще пример: вы написали интересную и важную новость и должны получить только ограниченное количество трафа?
Вы часто ищите сайты, которые не помните? То есть, вы помните, что в гугл ввели запрос и нашли сайт и снова также делаете. Это грубое сравнение, но делать квоту это идиотизм. Еще пример: вы написали интересную и важную новость и должны получить только ограниченное количество трафа?
Предлагаете законсервировать ТОП? К тому же, похоже, у Гугла все организовано так, что потребность к выкидыванию сайта по превышению "квоты" сведена к минимуму. После изменения "квоты" сайт колбасит около месяца, а потом все стабильненько. Основная задача Гугла - разорвать связи между ТОПом и показателям сайтов в ТОПе и между действиями оптимизатора и результатом этих действий. И с этой точки зрения "квота" - совсем не идиотизм, а очень эффективный инструмент. Вопли оптимизаторов это наглядно показывают. А по новостям работают совсем другие алгоритмы.
Вы часто ищите сайты, которые не помните? То есть, вы помните, что в гугл ввели запрос и нашли сайт и снова также делаете. Это грубое сравнение, но делать квоту это идиотизм. Еще пример: вы написали интересную и важную новость и должны получить только ограниченное количество трафа?
Редко и обычно запоминаю сложный НЧ (один показ,один клик)
Где идиотизм? Идиотизм это пингвин. Еще раз есть молодой сайт, пусть будет 50 страниц. Ему гугл (фиг знает по какому алгоритму дал квоту 500 показов в сутки). Он из-за серпа имеет максимум 100 показов. Все хорошо. Потом ушлый вебмастер начал прокачивать ссылочное, сайт пошел в гору и имеет 400 показов, все хорошо. Когда количество показов превисило 500 гугл начал тем или иным образом химичить выкидывая страницы из основного индекса, задвигая нч и тп. Это длятся пока алгоритмы гугла не проверят сайт более досконально и повысят квоту или засунут его под пингвин или панду. Где идиотизм? Вы забываете, что уникальных новостей не бывает.
Квота это механизм для уменьшения воздействий вебмастера на выдачу и очень удобный механизм контроля.
Все это гипотезы. Я еще раз повторяю, что сама квота существует, не все сайты в нее упираются, а только часть. Зачем она нужна гуглу можно только предполагать. Ее можно менять, меняя содержимое сайта, перелинковку внутри сайта, исправляя ошибки на сайте, на нее практически не влияют внешние ссылки-это проверено экспериментально.