Так в Гугле все просто, как дважды два. Это быстрый сайт со всеми новомодными плюшками:AMP, SSL, HTTP2, srcset и т.д. Это контент с уникальной смысловой нагрузкой (не порядком букв в тексте). Ну и как не банально это звучит, Гугл это ссылки.
При этом Гугл считает сильно шумными, спамными и манипулятивными такие факторы как ПФ, или соц сигналы, и их влияние очень незначительно, можно например тупо ссылками, выпихнуть сайт, не очень хорошо отвечающий на запросы в ТОП, у которого будет достаточно высокий отказ, и тебя автоматом не понизят из за плохого ПФа, но при этом с большой вероятностью ты попадешь под ручную проверку, и получишь ручные санкции))))
Да я понимаю что совпадение, и что так быстро не бывает, хотя выглядело прикольно.
Из того, что сделано после последнего получения метки.
Запрещен через роботс индексирование всей директории /user/ и /img/, это две директории которые давали большую разницу в Просканировано/В индексе.
1000 страниц из /user/ закинуты в вебмастере в приоритетное удаление.
При этом каких то изменений в вебмастере, кроме снятой метки, я пока не вижу, т.е. "недостаточно качественных" страниц по версии Яши, как было, так и осталось в вебмастере....
Это хит, в который ни кто не поверит.
20:42 сделал клоаку
сейчас 21:22 метка пропала, трафик пошел)))))))))
У меня блоки и на мобильном и на десктопе ограничены 100 пикселями в высоту, как раз две кнопки выходит, но это не помогает.
Как по мне, то это идиотизм верить, что это ручные санкции от школоты из толоки.
Да, яша пытается чему то научить свой ИИ, и использует рабов с толоки, на низшем уровне. После этого, на следующем этапе, я думаю эти результаты оценивает кто нибудь поумнее....ну условный толокер, выслужившийся до уровня постоянного ассесора. А на третьем этапе, кто нибудь еще умнее, условный штатный сотрудник Яндекса. И вот эти все оценки, после этого запихиваются в некий алгоритм...который уже оценивает агрессивность и качество рекламы на вашем сайте.
Ну так я особо ничего и не делаю)))
А с такой ситуацией как у вас....яб клоаку сделал для яндексботов и толокеров, может и всего яндекс браузера...и серьезно задался бы вопросом, почему мой сайт получает так мало из Гугла, и как эту ситуацию исправить.
А что значит траф с Гугла приличный? У меня трафа с Яши максимум 1/3, в Гугле по всем сайтам на порядок больше,
и это про сайты на русском....а двуязычные сайты, так там вообще, трафик с Яндекса есть...но доходов с него мизер.
В рунете, единственное чем мне нравился Яша, это большим количеством трафика из богатых русскоязычных регионов - Москва, Питер, где у рекламодателей конкуренция по выше, и соответственно клик относительно дорогой для российского рынка.
Да ни кто там ничего не проверяет. Не переходит бот по рекламе, и не начинает заниматся выяснением, умер ли Билан на самом деле, действительно ли Кабаеву унизили жестко, и точно ли это средство поможет продлить стояк на 3 часа, а не на 2,5.
Там алгоритм должен быть простой, как дважды два.
Блок ссылок, скорее всего один из параметров, учитываемых алгоритмом, но даже не главный. Я уже писал, у меня из более чем двух десятков сайтов с блоком ссылок, метку и обвал трафика получали 3, сейчас под меткой остался один....
там что нибудь простое, на уровне, БС в первом экране и ПФ хуже такого то, или БС вне первого экрана и ПФ хуже такого то, или рекламы более 30% площади и ПФ хуже такого то. Ну или вместо ПФ как предположение, отношение проиндексированных страниц к страницам присутствующим в поиске, хуже некого значения. Или какой нибудь другой, но такой же, простой параметр, а не нечто сложное.
Brat_Sergij, У меня тоже 9е, метка повторно прилетела 10го.
Может тогда
User-agent: YandexBot
Disallow: /wp-content/uploads/
Host: сайт
Sitemap: сайт/sitemap.xml
User-agent: YandexImages
Allow: /wp-content/uploads/
а то по другому, выходит противоречие в директивах.