- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день, интересует мнение по поводу данного предположения. Есть ли у Гугла какой-либо алгоритм который бы ограничивал количество трафика который гугл отдает на сайт? Возможно он зависит от траста, поведенческих факторов или наличия определенных санкций. Заметил по 2 проектам, что после оптимизации сайта или применении других изменений которые должны дать позитивный эффект начинаеться рост трафика - приблизительно на 10-30%. По достижению определенного уровня количества органика трафика возвращаеться на практически предыдущий уровень. Что делать? Явных фильтров по одному из сайтов нет. По второму был ручной фильтр который снят.
вероятно чтото такое существует. Причем работает обратно пропорционально от трафика с Яндекса. Постоянно наблюдаю зеркальный трафик в графиках - как только скачок в яндексе - провал в гугле, и наоборт...
вероятно чтото такое существует. Причем работает обратно пропорционально от трафика с Яндекса. Постоянно наблюдаю зеркальный трафик в графиках - как только скачок в яндексе - провал в гугле, и наоборт...
Как бороться? Удалить к черту гугл аналитикс? Как Гугл может еще определять ПФ и трафик с других источников?
Этой теме уже 2 года. На форуме уже приводились эксперименты которые якобы доказывали существование ограничителя, но не объясняли механизм контроля. Контролировать число переходов на сайт Google может только за счет ранжирования на серпе, чтобы понижать трафик необходимо понижать и позицию сайта. А теперь представьте себе систему ранжирования, основанную на необходимости давать определенное число переходов сайту ☝ При этом учтите, что контролировать необходимо не 5-10, а порой десятки тысяч запросов для каждого сайта, учитывая при этом и другие сайты в топ-10 и надо не забыть еще и о качестве поиска :) Вообщем это настолько же выполнимо, как строить людей по росту исходя из цвета их штанов...
Зачем поисковикам это надо?
Нет такого фильтра.
Мыслим как гуглоиды:
Сделали новый фильтр ограничения трафика, потратили на это пару млн долларов.
Что улучшилось? Как вернуть эти пару миллионов им? Зачем делать фильтр, который никому не нужен?
Зачем поисковикам это надо?
Нет такого фильтра.
Мыслим как гуглоиды:
Сделали новый фильтр ограничения трафика, потратили на это пару млн долларов.
Что улучшилось? Как вернуть эти пару миллионов им? Зачем делать фильтр, который никому не нужен?
Ответ очевиден - загнать людей в Адвордс.
Так рождаются легенды.
Этой теме уже 2 года. На форуме уже приводились эксперименты которые якобы доказывали существование ограничителя, но не объясняли механизм контроля. Контролировать число переходов на сайт Google может только за счет ранжирования на серпе, чтобы понижать трафик необходимо понижать и позицию сайта. А теперь представьте себе систему ранжирования, основанную на необходимости давать определенное число переходов сайту ☝ При этом учтите, что контролировать необходимо не 5-10, а порой десятки тысяч запросов для каждого сайта, учитывая при этом и другие сайты в топ-10 и надо не забыть еще и о качестве поиска :) Вообщем это настолько же выполнимо, как строить людей по росту исходя из цвета их штанов...
С одной стороны я с вам соглашусь что это трудоемко, но с другой стороны гугл имеет разную выдачу на разные регионы, устройства, языки и так далее. Поэтому ограничивать трафик для них не проблема и технически возможно.
P.S. Я не пытаюсь найти оправдание проблемам роста органик трафика.
Этой теме уже 2 года. На форуме уже приводились эксперименты которые якобы доказывали существование ограничителя, но не объясняли механизм контроля. Контролировать число переходов на сайт Google может только за счет ранжирования на серпе, чтобы понижать трафик необходимо понижать и позицию сайта. А теперь представьте себе систему ранжирования, основанную на необходимости давать определенное число переходов сайту ☝ При этом учтите, что контролировать необходимо не 5-10, а порой десятки тысяч запросов для каждого сайта, учитывая при этом и другие сайты в топ-10 и надо не забыть еще и о качестве поиска :) Вообщем это настолько же выполнимо, как строить людей по росту исходя из цвета их штанов...
Штаны тут ни при чем, у Гугла куда больше данных о Вас )
Нет ничего нереального! Я бы сказал даже элементарно! Другое дело что вы не знаете как это делается )
Гугл имея точку актуальности просчитанную хотя бы раз в месяц может исходя из нее создать две таблицы, одна из которых будет коррегирующей по отношению ко второй части суток и строить ее ежедневно, мощности позволяют.
Гугл всегда знает сколько трафа он отдал сайту, а так же он знает сколько по расчетам без квоты сайт должен получить трафа, а так же Гугл может элементарно прогнозировать траф с других источников, и даже сепарировать его на поисковый, прямой, социальный, даже не используя аналитикс, потому как у Гугла есть два других отличных инструмента - хром и кнопка +1 на большей части инета. Делать он может это в реальном времени. Кроме того у Гугла есть весьма четкие сведения, включая прогнозируемые, учитывая сезонность каков ежедневный суммарный траф на каждый запрос, считать это Гугл может раз в месяц, в неделю.
Так вот, располагая всеми этими данными можно выстроить вторую таблицу ранжирования используя данные ранжирования из первой таблицы, относительно каждого запроса, для каждого сайта, и отколлерировать используя прогнозируемые значения в качестве коефициента таким образом, что бы суммарный прогнозируемый траф относительно запроса для каждого сайта был равен прогнозируемому суммарному запросу. (Пересчет даже для огромнейшей пачки сайтов почти мгновенный.) Далее все просто. Как только сайт выбирает половину своей ежедневной квоты - для этого сайта включается коррегирующая таблица, и если тенденция сохраняется, например неделю, то сайт попадает на стол ассесору, который либо разрешает траф, и квота для сайта пересчитывается и позиции идут вверх, либо подтверждает квоту, и крути дальше сколько хояешь.
О том что Гугл это умеет делать вы можете наблюдать в панели вебмастера, там кроме всех графиков, бывают еще сообщения "у вас сильный прирост трафа" "у вас падение трафа"...
Этой теме уже 2 года.
Здравствуйте, а можно подробнее? Ссылки например.
А почему не придумать еще ограничения на сумму трафика. Например гугл не дает трафика больше 100$) Например это может быть 10 переходв по дорогим запросам или 10000 по дешевым