Виктор Петров

Виктор Петров
Рейтинг
240
Регистрация
05.01.2020
Ребята, не стоит вскрывать эту тему
Mric :
собрал пачку блогов и порталов под регион в котором не работал

Я правильно понимаю, речь об одном из фешенебельных районов Нью-Йорка, а продвигаемый сайт - что-то из сферы продаж недвижимости или loan?
Если нет - то проблема чутка надумана под влиянием того бреда, который генерят говорящие головы Гугла и "аналитики" из того же Нью-Йорка.
Для всего остального мира действует правило "Проблемы негров шерифа не волнуют".

Chukcha #:
т.е. с ваших слов (так я понял):  качество определяет  асессор =  человек, но не машина = ИИ

Именно так. На уровне ИИ там по прежнему всё последовательно, начиная с самого тупого: взять страничку, просканировать, выдрать текстовый контент, высыпать оттуда все слова, ободрать стоп-слова, получить список в духе
мама
мыть
рама
Если всё в порядке - просчитывать дальше по более сложным алгоритмам. Тратить вычислительные мощности на каждый подряд сайт, тем более - из неважных регионов, никто не будет. В сложных случаях - звать людей, смотреть глазками, получать оценку. Но для этого надо вплотную к топам подобраться и трафа собирать чуть больше, чем три человека в год. Намного чуть больше.

Chukcha #:
А также - как самостоятельно оценить качество. (не думаю, что небольшое количество орфо ошибок влияет на качество), также как и неправильно расставленные знаки препинания..

Влиять-то - влияет, но насколько я знаю, речь только о ручных проверках. Если зайдут асессоры - могут поставить галочку, что контент написан безграмотно.
Сколько тех асессоров и из какого они Пакистана?
Я бы не парился.

Это очередной бред, выпавший из лысой головы Мюллера и тиражируемый редакторами СМИ.
Понятно, что в рамках хоста некачественных разделов, открытых для индексации, быть не должно. Под качественным же переводом стоит понимать хоть какое-то соответствие языковым нормам, отсутствие орфографических ошибок и т.п. Есть большие сомнения, что алгоритм может решить, что перевод "неправильный".
Указывать hreflang для закрытых от индексации страниц смысла никакого нет - как минимум, это приведет к нарушению запрета индексации роботом.
Если с переводом реально есть проблемы и контент - на "птичьем" языке в духе "моя твоя говорить слова слушать жена собаки!" - ну, надо поднанять переводчика-редактора, пусть поправит.
сеобелка #:
Я понимаю, вы как и многие здесь не верите во взаимосвязь падения позиций в Яндексе и наплыва ботов. Это отрицает и сам Яша. Но, факт остается фактом. Если половина или более трафика повалит прямыми или из соц-сетей позиции в Яндексе не просто падают,они улетают в никуда.

Это не объект веры. Либо есть чёткие корреляции - либо нету. Разговоры об этом слышу, подтверждений на графиках и цифрах - не вижу.
Думаете, я не экспериментировал с этим сам? Все гипотезы проверены не по разу и в разных вариантах.

сеобелка #:

Смысл в том, что уже около полугода приходится отсекать часть трафика.

А зачем? Нагрузка на сервак? Склик адсенса? Ещё что-то?
Яндекс и боты - братья навек. Точнее, до того момента, когда он вообще весь траф под свои сервисы и своих аффилиатов подберёт.
Хорошая идея - акцент делать на Гугле. Там хотя бы люди есть.

Бумеранг777 #:
подожди как Петров несколько лет

Я переболел. У меня есть куар-код. Проблем с перемещениями у меня нету, загран меня не интересует.
И ты переболеешь - может, и не раз.
Жижа-то тебе зачем? Чтобы менее мучительно умирать (как ваши любят аргументировать)? Так там разницы нету, если уж помирать взялся. Только риск там - примерно как при гриппере, даже если речь идёт о более серьёзных штаммах, чем нынешний омикроб.
Логика-то в чём?

Mik Foxi #:
мало кто в здравом уме будет пускать парсер ради парсинга на браузерном движке, это х10 по ресурсам надо

Да, по ресурсам - это жруче. Но без этого смысла парсить на аудит сайты давно уже нету, нужен полный эмуль с рендерингом. Я так сайты тащу, парсинг может и неделю занимать для интернет-магазина объёмом от 100 тыщ урлов. 2022 год, дублей по тайтлам для анализа маловато.

Mik Foxi #:

Это все явно для поведенческих, чтоб и метрика успела загрузиться.

С одного IP? думаешь, есть такие кретины, даже если речь о Кургане? Не поверю.

Mik Foxi #:
и молотит он по куче сайтов, у которых тематики не особо связаны.

Тем более. Там может оказаться что угодно, от веб-студии до дорвейщика, но никак не про ПФ.

Mik Foxi #:
2336 запроса с одного ипа за 3 часа. И такое бешенство по всей россии со многих ипов ))) ботов все больше.

Ну так это парсер молотит, боты то при чем.

сеобелка #:
Ваши практики просто еще не попали в группу "счастливчиков" которых используют для нагула, выгула, откорма или еще чего там этих зверюшек.

Я не про вебмастеров говорю. Про тех, кто работает с накрутками. Нагул никуда не делся. Но вот негативного влияния никто не замечает, как и от поискового фрода. Как и прямые с соцсетями используют в основном для себя, на своих проектах под ряд задач.

сеобелка #:
В общем не интернет, а зверинец.

Ну, а что вы хотели? Яндекс - это примерно 80% ботов во всей экосистеме. Это данность, с этим можно только смириться.

сеобелка #:
У меня, к сожалению, один сайт с этой историей так и живет. А с шухера что толку? Все равно нет идеального решения ни у кого.

Так в чём трабл-то конкретно? Вы как эффективность сайта просчитываете? Сейчас только достижение целей и конверсии стоит брать в расчёт. 
Что касается решений - ну, настройте связку CF с "Антиботом", часть трафа обезжирите - ботовни будет точно меньше. Но смысл-то в чём? Я не понимаю.

Всего: 4434