Я правильно понимаю, речь об одном из фешенебельных районов Нью-Йорка, а продвигаемый сайт - что-то из сферы продаж недвижимости или loan?Если нет - то проблема чутка надумана под влиянием того бреда, который генерят говорящие головы Гугла и "аналитики" из того же Нью-Йорка.Для всего остального мира действует правило "Проблемы негров шерифа не волнуют".
Именно так. На уровне ИИ там по прежнему всё последовательно, начиная с самого тупого: взять страничку, просканировать, выдрать текстовый контент, высыпать оттуда все слова, ободрать стоп-слова, получить список в духемамамытьрамаЕсли всё в порядке - просчитывать дальше по более сложным алгоритмам. Тратить вычислительные мощности на каждый подряд сайт, тем более - из неважных регионов, никто не будет. В сложных случаях - звать людей, смотреть глазками, получать оценку. Но для этого надо вплотную к топам подобраться и трафа собирать чуть больше, чем три человека в год. Намного чуть больше.
Влиять-то - влияет, но насколько я знаю, речь только о ручных проверках. Если зайдут асессоры - могут поставить галочку, что контент написан безграмотно.Сколько тех асессоров и из какого они Пакистана?Я бы не парился.
Это не объект веры. Либо есть чёткие корреляции - либо нету. Разговоры об этом слышу, подтверждений на графиках и цифрах - не вижу.Думаете, я не экспериментировал с этим сам? Все гипотезы проверены не по разу и в разных вариантах.
Смысл в том, что уже около полугода приходится отсекать часть трафика.
А зачем? Нагрузка на сервак? Склик адсенса? Ещё что-то?Яндекс и боты - братья навек. Точнее, до того момента, когда он вообще весь траф под свои сервисы и своих аффилиатов подберёт.Хорошая идея - акцент делать на Гугле. Там хотя бы люди есть.
Я переболел. У меня есть куар-код. Проблем с перемещениями у меня нету, загран меня не интересует.И ты переболеешь - может, и не раз.Жижа-то тебе зачем? Чтобы менее мучительно умирать (как ваши любят аргументировать)? Так там разницы нету, если уж помирать взялся. Только риск там - примерно как при гриппере, даже если речь идёт о более серьёзных штаммах, чем нынешний омикроб.Логика-то в чём?
Да, по ресурсам - это жруче. Но без этого смысла парсить на аудит сайты давно уже нету, нужен полный эмуль с рендерингом. Я так сайты тащу, парсинг может и неделю занимать для интернет-магазина объёмом от 100 тыщ урлов. 2022 год, дублей по тайтлам для анализа маловато.
Это все явно для поведенческих, чтоб и метрика успела загрузиться.
С одного IP? думаешь, есть такие кретины, даже если речь о Кургане? Не поверю.
Тем более. Там может оказаться что угодно, от веб-студии до дорвейщика, но никак не про ПФ.
Ну так это парсер молотит, боты то при чем.
Я не про вебмастеров говорю. Про тех, кто работает с накрутками. Нагул никуда не делся. Но вот негативного влияния никто не замечает, как и от поискового фрода. Как и прямые с соцсетями используют в основном для себя, на своих проектах под ряд задач.
Ну, а что вы хотели? Яндекс - это примерно 80% ботов во всей экосистеме. Это данность, с этим можно только смириться.
Так в чём трабл-то конкретно? Вы как эффективность сайта просчитываете? Сейчас только достижение целей и конверсии стоит брать в расчёт. Что касается решений - ну, настройте связку CF с "Антиботом", часть трафа обезжирите - ботовни будет точно меньше. Но смысл-то в чём? Я не понимаю.