- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
С помощью инструментов хостинга сегодня ради эксперимента полностью заблочил сайт для США (много ботов шло оттуда, а контент русскоязычный и посетителей с США реальных по метрике не больше 3%). Кроме поисковых, естественно. И теперь при попытке проверить скорость сайта в pagespeed.web.dev, мне показывает 100%, потому что там вместо контента для бота pagespeed.web.dev висит плашка "доступ для вашей страны закрыт".
Если так все и оставить, будут ли поисковые боты считать мой сайт идеально оптимизированным? 😀
Если так все и оставить, будут ли поисковые боты считать мой сайт идеально оптимизированным?
нет конечно, ибо пейдж спид показывает попугаи для хомяков)) синт тест, все данные реальные в консоли
но блочить сша это круто, гуглбот наверное очень рад и скоро его радость покажется в разделе эффективность в консоли
нет конечно, ибо пейдж спид показывает попугаи для хомяков)) синт тест, все данные реальные в консоли
но блочить сша это круто, гуглбот наверное очень рад и скоро его радость покажется в разделе эффективность в консоли
Для гуглобота и Бинга доступ открыт.
гугл смотрит своим гуглботом в момент индексации
Не в момент индексации, а в момент использования сайта пользователями. Браузер клиента передает данные в гугл.
Иначе сказать, каждый, кто заходит на сайт автоматически тестирует его с помощью lighthouse и передает данные в гугл.
Не в момент индексации, а в момент использования сайта пользователями. Браузер клиента передает данные в гугл.
Иначе сказать, каждый, кто заходит на сайт автоматически тестирует его с помощью lighthouse и передает данные в гугл.
Ничего он не тестирует пользователями
Вот два поддомена для одной и той же страны с примерно одинаковым трафиком примерно +- 5%
На сайте ничего не менялось аудитория одна и таже тоесть пользователь с поддомена А почти всегда переходит на поддомен Б и наоборот. Еслибы он замерял пользовательскими браузерами то не было бы такого разброса и как он замеряет например пользователей из сафари? Если он их видит в аналитике но не может отдать достоверные данные?
Я что хочу сказать этот вонючий pagespeed сейчас почти ни на что не влияет они его криво меряют и криво используют постоянно прилетает что на каком-то поддомене проблемы хотя код один и тот же.
Не было бы таких разбросов если на сайте трафик плюс минус стабильный и ничего не меняется.
На другом проекте сайт по запросу точного домена гугл не может показать на первой странице главную а показывает соц сети и твиты хотя pagespeed 90 / 98.
Не было бы таких разбросов если на сайте трафик плюс минус стабильный и ничего не меняется.
иногда этот график зависит от того что крутят саму консоль или инструменты определения
На другом проекте сайт по запросу точного домена гугл не может показать на первой странице главную а показывает соц сети и твиты хотя pagespeed 90 / 98.
Не в момент индексации, а в момент использования сайта пользователями. Браузер клиента передает данные в гугл.
Иначе сказать, каждый, кто заходит на сайт автоматически тестирует его с помощью lighthouse и передает данные в гугл.
нет, именно ботами индексаторами он проверяет скорость. сделайте клоакинг, чтоб гугл ботам индексаторам не отдавать счетчики метрики, рекламу и т.п. тяжелый внешний мусор и увидите как в серч консоле начнет показывать пузомерки что ваш сайт супербыстрый. что передает браузер - снифается, что пердается там микро объем минимальных данных, без таких подробностей. в отличии от яндекс браузера, который на каждый запрос к сайтам шлет тонны инфы о компе и юзере на свои сервера.
Ничего он не тестирует пользователями
Как тогда объяснить другую стату page speed, в котором чёрными по белому написано "отчёт от посетителей"?
Если эта стата формируется по данным Google бота, то откуда космические TTFB и прочее, как будто гугол бот юзает мобильный интернет с Африки?)