- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А что делать с запросами, которые бывают ~ 1 раза в год? Их общая доля может быть и 30%
Спасибо, интересное замечание. Вы вернули меня к тому, что только в Mayday до 550 факторов, а ПФ - это один фактор. "Что делать" Вы ответили цитатой: гугл отдаёт эти запросы без проверки качества через ПФ сайтам с "высоким качеством", т.е. тем, которые удачно прошли тест ПФ по ВЧ, имхо.
Это всего лишь моя бредовая теория, которая даже мою критику по многим моментам не выдерживает. Однако, я не знаю как еще объяснить смену урлов в топе при обновлении страницы. Мне предлагали идею, что так гугл тестирует кликабельность именно своей страницы СЕРПа в сторону увеличения доли адвордса - мне эта идея не очень нравится :)
И с другой стороны, я считаю, что ПФ не может быть усреднён. Это я показал на "отказах" по ИМ. Так же можно рассмотреть "отказы" и по информационным запросам.
В общем, считаю, что Google пытается использовать ПФ в ранжировании. В определении качества страницы. Они точно хотят делать это без Платонов. Хоть за последний месяц им и пришлось обработать большое количество страниц асессорами.
Кстати, вижу по Вашей подписи, что в глобальном смысле Вы со мной согласны. Пойду почитаю статью в Вашей подписи вдумчиво.
А что делать с запросами, которые бывают ~ 1 раза в год? Их общая доля может быть и 30%
Мне кажется ПС используют что-то очень простое для измерения ПФ. Ну настолько простое, что его никто не принимает за правду.
Мне кажется ПС используют что-то очень простое для измерения ПФ. Ну настолько простое, что его никто не принимает за правду.
Ну вот я и предположил: "слепок" используют. Т.е. ПФ этого сайта относительно его же. Т.е. фиксируют изменения, а не саму "величину"
Мне кажется ПС используют что-то очень простое для измерения ПФ. Ну настолько простое, что его никто не принимает за правду.
Или не использует вовсе, или же использует но не применяет к конкретному запросу или странице, а применяет ко всему сайту.
Ну вот я и предположил: "слепок" используют. Т.е. ПФ этого сайта относительно его же. Т.е. фиксируют изменения, а не саму "величину"
Возможно. Некие слепки (опять же чего?) хеши и т.д. Их быстрей обсчитать можно. Работает то мгновенно. Вопрос почему? Значит что-то простое используется.
---------- Добавлено 28.04.2013 в 17:43 ----------
Или не использует вовсе, или же использует но не применяет к конкретному запросу или странице, а применяет ко всему сайту.
Врядли к сайту. Ведь по запросам выдается страница?
Врядли к сайту. Ведь по запросам выдается страница?
Вот Богоносец выше привел пример из комментария Каттса: НЧ запросы отдаются качественному сайту.
YuriDnepr, переборка слов нужна? Гуглера сами говорят - сначала страница, а потом уже сайт. А Метт мог так сказать так из-за сложившегося понятия у СЕО-ВМ так как они не делят сайт на страницы и воспринимают его как целое(для продвижения). Но я только теоретеГ и тут ничего сказать больше не могу :)
Гуглера сами говорят - сначала страница, а потом уже сайт.
Гугляры много чего говорят)
Сайт определённо воспринимается ПСами цельным. Определённые факторы оценивают страницы, а другие оценивают сайт в целом.
Я тоже склоняюсь к некому слепку, очевидно, что как новые, так и старые трастовые сайты, по некому гугловскому расписанию, проходят некие тесты по запросам, на которые ставит акцент оптимизатор, а после решает, оставлять в топе или понизить за не качественный контент.
Интересует сам момент, как ПС определяет сколько именно пользователь находится на сайте, кол-во кликов и переходов по страницам и т.д. Или если не помочь метрикой и аналитиксом ПС такой информации не имеют?
Интересует сам момент, как ПС определяет сколько именно пользователь находится на сайте, кол-во кликов и переходов по страницам и т.д. Или если не помочь метрикой и аналитиксом ПС такой информации не имеют?
Бары, браузеры, возможно сливают инфу другие счётчики.