vga1

vga1
Рейтинг
251
Регистрация
18.02.2007
weblad:
Друзья, боты заходят в том числе из поисковой выдачи Яндекса, по ключевым поисковым запросам.

1. Отключить ботов в метрике, убрать метрику и т.д., я думаю мало что даст, Метрика не единственный для Яндекса способ оценки поведения посетителей на сайте.

2. Не понятно как определять кто бот, а кто нет, при том, что боты из России, пришли из Яндекса, у всех разные браузеры/ос. Боты выполняют javascript, поддерживают куки.

По первому пункту способов у Я. несколько: Метрика, liveinternet(писали о сливе данных в Я), Я.броузер (10% всех броузеров) и реклама РСЯ. Теоретически убрать можно все.

По второму, сайт в России, можно скриптом Оптимизайки забанить основные буржуйские AS, откуда боты идут через прокси. Заходы из ботнета не ограничить.

Основная проблема, которую трудно решить, это эмуляция ботом быстрого возврата в SERP и щелчок по другой позиции. Фактически бот сделает щелчок в serp на вашем сайте и через несколько секунд на другом. Тут не понятно, как Яндекс поведенческие оценивает. Пользователь может открыть несколько сайтов одновременно и смотреть результаты. Вероятно, Яндекс такой вариант учитывает и не снизит поведенческие, если не будет обратной связи с сайтом (1 пункт).

Вообщем, можно было бы заменить Метрику на GA, если РСЯ на сайте нет :)

Ну она же вежливая )

Подумайте все же о входящих/исходящих раздельно по RU/EN в разрезе интервалов DA (0-10, 11-20,...) Скорей всего, там интересное накопаете.

jpg 1.jpg

То есть, моделирую параметр Е-А-Т Гугла, Вы не включили в него количество входящих/исходящих ссылок и DA?

yonen:
Серьезно? То есть от Ahrefs можно спрятать приватную сетку?

Запрет от ботов по юзерагенту на сайте в сетке.

.htaccess

RewriteEngine on

SetEnvIfNoCase User-Agent .*rogerbot.* naughty
SetEnvIfNoCase User-Agent .*mj12bot.* naughty
SetEnvIfNoCase User-Agent .*ahrefsbot.* naughty
SetEnvIfNoCase User-Agent .*linkpadbot.* naughty
SetEnvIfNoCase User-Agent .*semrushbot.* naughty
SetEnvIfNoCase User-Agent .*linkdex.* naughty
SetEnvIfNoCase User-Agent .*exabot.* naughty
SetEnvIfNoCase User-Agent .*sitebot.* naughty
SetEnvIfNoCase User-Agent .*dotbot.* naughty
SetEnvIfNoCase User-Agent .*gigabot.* naughty

Order Allow,Deny
Allow from all
Deny from env=naughty
xVOVAx:
vga1, ключевое слово вероятно . либо уточняйте в каком направлении сайты, какой стране, инфо или коммерц итд

первый ответ JM

/ru/news/2018738

langemark:
Оценка качества - это что за зверь? Типа, ИКСа у Яши?

Вероятно, есть у гугла внутренний глобальный параметр качества сайта, аналог, как описано в руководстве асессоров. Самое обидное, что этот фильтр выкашивает средний класс сайтов, в создание которых ушло не один год. Монстров фильт не трогает, а доры успевают собрать свой траф между апдейтами. Поэтому становится выходней делать доры, чем полноценные сайты-середнечки с перспективой словить фильтр через полгода.

langemark:
Я отклонял на нескольких сайтах, на других не отклонял. Результат одинаковый. Как, в марте прошлого года просели все проекты, так и сидят. Не помогает ни отклонение, ни https, ни отдельные ip, ни выделенные сервера, ни speed page, ни W3C...

Думаю, это параметр-фильт за E-A-T, присваемый сайту. Например, за оценку качества medium: -25%, low: -50%, lowest -75% просадки трафика. Пересчитывается этот параметр несколько раз в год, вероятно в дни core апдейта при существенных изменениях на сайте. И в основном на него влияют ссылки и качество текста. а не технические параметры.

awasome:
https://news.mail.ru/economics/35927735/

Походу, закон ждет очередной фейл.

Похоже защита от перевода в самозанятые есть:

Единственное исключение: самозанятый уже работает у вас по трудовому договору или уволился меньше двух лет назад. Тут придётся отчитываться как за обычное физлицо. В законе прописали такое правило, чтобы работодатели не начали массово переводить своих сотрудников в самозанятых.

https://e-kontur.ru/blog/15736/kak-s-samozanyatymi

SeoEugen:
Здесь ключевые слова "интересы Гугл". Что же считает Гугл медицинскими сайтами - https://support.google.com/websearch/answer/2364942?hl=en. Это сайты, которые написаны мед персоналом. Тогда, если доры выходят в топ по медицинским запросам и профессионализмом врачей там не пахнет, значит у Google нет алгоритмов определения качества сайтов по медицинской тематике.

Вот интересные строки:

First, we find and analyze health-related information from high-quality sites across the web. Next, teams of doctors carefully review and refine the information

Что дословно переводится: Во-первых, мы находим и анализируем релевантную информацию по тематике здоровья с авторитетных сайтов. Следующим шагом команда врачей внимательно просматривают и уточняют информацию.

Интересно, сколько им придется нанять мед работников, чтобы те проверили все доры, которые висят в топе.

По ссылке говорится, с каких сайтов гугл берет информацию, которая будет отображаться слева в выдаче или в подсказках. А не тот, как он проверяет медицинские сайты в выдаче (доры в том числе).

donc:

Банить или клоачить по айпи - ваще красота - нормальные юзеры с ИП хостеров не ходят, потому что для этого внезапно нужен провайдер, а они редко ведут оба рода деятельности.

Пробовал, потеря 20% трафа.

Всего: 1713