Виктор Петров

Виктор Петров
Рейтинг
240
Регистрация
05.01.2020
Ребята, не стоит вскрывать эту тему
Mik Foxi #:
ну кто-то какой то бред напишет и понеслись

Мораль-то простая. Боты всегда будут пытаться имитировать реального человека и его действия, притом с учетом того, что в данный момент подразумевает Яндекс. Снизилась эффективность бота - внесли корректировки в настройки. Появился новый фактор, влияющий на эффективность - прикрутили.

Denechka #:
По своему опыту, тут время отклика имеет значение. Долго ждать он не любит. Ну а когда дойдёт очередь - он может съесть много, если конечно его принудительно не глушат. Если содержание его заинтересует - плевать он хотел на ограничения.

Мюллер как-то обмолвился, что время ожидания отклика сайта для гуглобота - аж 2 минуты. Он терпеливый. Другое дело, что в реале он может этого и не делать. После пары зависонов пометит документ или хост как чересчур тормозной - и лимит на обходы уменьшит. Вот тебе 5 URL в очередь при заходе раз в неделю - и делай что хочешь.
То же самое и с редиректами. Формально - 20 переходов (насколько я помню). Фактически, судя по логам, может послать сайт уже и на пятом.
Так что да, многое упирается в своего рода "карму" сайта, его техническое состояние, интерес для ползателей, и ещё пачку сигналов.

Skanavy7 #:
У меня есть интернет-магазин, где каждая страничка, будь-то карточка или категория, расписана по-википедийски. И вот точь-в-точь такая же ерунда. 

Потому что не всё упирается в контент.
Гуглобот технически имеет ограничения на обход сайта. Вот он получил документ - вот он получил с этого документа список ссылок, которые поставил в очередь на дальнейший обход. И приоритет этим ссылкам он отдаст разный, в соответствии со своими собственными алгоритмами.

Frost bite #:
А это я еще переписываюсь с админами Мегафона. О проблеме оповещены. Надо было сразу им абузу кидать.

Мегафон для накруток любят по одной причине: IP привязан к определенной локации, несмотря на реальное гео. Ну, и ещё пара плюшечек. Не более того.
В общем то, нежно любимая всеми вебмастерами рунета Metropolitan Branch у того же Яндекса давным-давно помечена как заспамленная, так что не исключено, что использование её вскоре станет чем-то типа размещения сайта в зоне XYZ - можно, но не стоит.
Начинайте уже писать в абузы Теле2, МТС, Билайна, владельцам взломанных ПК и хостерам вообще. Только Мегафон бомбить - малоэффективно.
Как совершенно справедливо отметил выше один сэр, стоит разработчику софта для накруток или вождям нескольких сообществ в соцсетях дать своей пастве новые рекомендации - они ломанутся их внедрять даже не включая голову. Ну, скажем, будут нагуливать не там, где есть Метрика, а где есть "Дживосайт" - и боты будут писать туда бессмысленную фигню. Или ещё что-нибудь.
Беда-то не в Мегафоне, и не в Метрике. Это беда поглобальнее будет. С дурью никакой абуз не справится.

Vladimir SEO #:
зачем? это ж порезка по нч трафику сразу

Так я к такому экстремизьму не призываю. Просто видал такие магазины - хорошо себя чувствуют, удивительно даже.

Дилетан #:
Твоя проблема не в редиректах, не в текстах и не в ссылках, как пишут здесь некоторые. И уж точно не в МПК.  
Пришли скрин наблюдений https://developers.google.com/speed/pagespeed/insights/

ШТА? А там, во-первых, шаблончик-то не общий ли для всего сайта? А во вторых, он увидел, но ещё не проиндексировал, или просмотрел, но не стал вносить в индекс. Какие там Web Vitals, если речь об индексации?

Антоний Казанский #:
Ваша ошибка - одновременная загрузка 10K неуникальных товаров. Это надо было делать поэтапно, дозированно, прокачивая каждый товарный кластер и отдельные группы товаров, попутно уникализируя часть товаров.

Как вариант - я бы больше внимания на категории обратил и их прокачку. В ряде случаев товарные карточки можно вообще от индекса прикрыть, на позициях не сказывается.
Тут вот, кстати, к ТС вопрос: ну, не проиндексировано. А как сказалось на общей динамике - позиции, траф?

Mik Foxi #:
так отказ то будет еще до попадания на сайт, а значит метрика будет чиста ))

Так это же хуже. "Метрика" и её данные - это уже не совсем про ПФ, как минимум - сильно вспомогательные данные. Яндекс далеко не всё учитывает, а то, что в паттерны не умещается - режет.

Mik Foxi #:
проходимость конечно падала, по грубым подсчетам процентов на 30, но скорее изза того, что у людей в браузере, особенно мобильном, небыло залогиненных в соц сетях аков и нечем было войти.

Интересно было бы на кейсик посмотреть. Кмк, сейчас результаты должны быть пожёстче. Народ нажрался интернетов, органика вообще падает как таковая. Все потребности удовлетворяются в каком-нито инстаграм или в другой приложухе: открыть ленту и пальцем - вжух, вжух, 2 секунды, чтобы рассмотреть каждый контентный блок.

serp_1 #:
Вы прикалываетесь? В сети уже сотни сообщений с графиками как боты топят сайты

Это как "миллионы мух не могут ошибаться". Массовый психоз и поиск ведьм. ПФ - не волшебная палочка даже для тех, кто накручивает себя.

serp_1 #:
у самого сайт есть там 10 процентов ботов видно льют прямые и соцсети, я забил на него защиты не ставил прилетело вас выкинули из РСЯ

РСЯ. То, что рекламным системам ваши боты не нужны - вполне логично. Но мы-то о поиске говорим, нет? О влиянии на ранжирование?

serp_1 #:
И только у вас все хорошо ни позиции ни рекламу не выкидывают, ну ну...

При нынешнем алго Яндекса всем одинаково паршиво. Но дело тут в алго, а не в ботах. У меня в анамнезе 2 убитых сайта, где был поисковый фрод. Но объективно: это были плохие сайты, серьёзно уступавшие конкурентам по ряду важных факторов, от технички до ассортимента. Как я уже сказал, "чистых" кейсов нет.

Просканировано, но не проиндексировано - это аналог МПК, НКС в Яндексе и "тонкого" контента. Как минимум, у Гугла недостаточно сигналов о том, что эти странички имеют какую-то ценность, чтобы держать их в индексе.
Ищите причины. Может быть - мало контента (меньше 300 слов), много дублируемого, нет трафика на эти страницы, ссылок тоже нету. Может быть, у гуглобота есть какие-то проблемы с доступностью.
По моему мнению, проблема достаточно серьёзная и трудно решаемая, как в свое время с дополнительным индексом (это, собственно, более жёсткая его форма) - проще удалить и выложить на новом URL уже хорошо отрихтованный контент, чем вытянуть страницу правками на том же URL. (но это лишь мнение).
Mik Foxi #:
это лог запросов по всему облачному антиботу. ипы почти не банятся, а когда банятся то на считанные минуты/часы, анализируется запрос по куче параметров

То есть только внутренняя стата?
На быстродействии как-то сказывается? Параметры просчитать - это ж ресурсы нужны.

Всего: 4434