sPoul

Рейтинг
140
Регистрация
23.01.2006
Единственный возможный плюс - это выделенный IP для сайта, но его можно и без vps запросить для виртуалки у хостера зачастую - надо смотреть услуги хостера или списываться с техподдржкой.

в коде проверять наличие ненужных get-переменных в запрошенном url и выводить в секции <head> вместо обычного <meta name="robots" content ="index,follow"> (если он вообще есть) - запрет через <meta name="robots" content="noindex,follow">   Это решит вопрос и с Яндексом, и с Гуглом.

robots.txt - не директива, а рекомендация, оба поисковика могут его игнорировать, если на страницы с параметрами где-то нарыли прямые ссылки (изнутри сайта или внешние).

Clean-param работает только для Яндекса и далеко не всегда (хотя чаще работает).

<link rel="canonical"> также рекомендация и Яндекс ее очень часто игнорирует по сочетанию прочих сигналов.

Поломалася главная страница. Вместо визитов те же просмотры показывает.

Косяк в Метрике

Не вполне верно. Надо вот так:

Clean-param:   items_per_page   /

В данном случае для любого URL от корня сайта будет применено правило отбрасывания данного get-параметра.
На всех сайтах в нескольких подконтрольных аккаунтах единомоментно сегодня утром выскочил в Диагностике флаг "Долгий ответ сервера".
Ну не может этого быть для разных CMS с разной степенью вылизанности, на разных хостингах.
Подозреваю, что что-то опять глюкануло в Яндекс.Вебмастер глобально.

Много если при многофакторном анализе - это нормально :)

3к - траф достойный. И наверное 2-3-4 основные трафикогенерирующие страницы, и у каждой из них 100/100, и у всех страниц второго шага 100/100 ? Не только же главную измеряли, я уверен?

Тогда вопрос - а цель то какая конкретно была? Что бы буст был у остальных страниц, на которые трафа отродясь не бывало? :)

Буст будет, если есть трафик.

Если ускорение делается ДЛЯ того чтобы изначально подняться - естественно, ничего не будет. Ибо метрик нет.

Смотрим gpsi - у них в отчете real world метрики фигурируют. Если в отчете указано «нет данных для анализа», то синтетическое улучшение формальных метрик ничего не даст.

Ну а если вы одновременно с остальными мероприятиями сделаете и улучшение скорости - то и выделить эффект не сможете, просто порадуетесь, как хорошо остальные действия сработали.

Сработает синергия, но а чистом виде она не выделяема, если только вы не пытаетесь при Имеющемся трафе и прочих равных с конкурентом обойти его. И опять же, пока real world data будут накоплены и учтены, не моментально

The WishMaster:
sPoul, и что это даст?

Сокращение времени ожидания до первой отрисовки, размазывание нагрузки на устройство по времени и в ответ на пользовательские действия.

Визуально для пользователя почти ничего не поменяется, если запускать дозагрузку с минимальным забеганием. Просто будет меньше лаг при зашрузке и переходах между страницами.

А для аналитических систем типа GPSI это как раз то самое улучшение метрик, счет точно повысится.

Ну а в совокупности, с улучшением как синтетического счета, так и данных в реальном мире - получится прирост качества сайта для поисковика.

А lazy init для js в зависимости от скроллинга (тот же lazyload картинок, только для js элементов), сделать не судьба? Или таких плугинов не нашлось, а спрограммировать самому скрипт на 10 строчек не получается?

Реклама, не реклама... все решаемо.

Всего: 256