sanek1991

Рейтинг
138
Регистрация
02.10.2016
Alamo #:
Так у Вас с МПК траффик примерно такой же остался?

Пока такой же, но что будет позже, хз. Может ещё не активировался.

Платоны как всегда написали - "проверим работу алгоритмов ...."

CCF229BPR6 #:
То есть в прошлом году сайт был полезен, а в этом году нет?
Насколько я понял, ИКС - это не абсолютное значение, а относительное. Точнее, присутствует относительный фактор. Конкурент подрос, соответственно ты опустился. Это чисто предположение из скромных наблюдений. Да ещё и крутят формулу постоянно.
Dambo #:
КАК ИКС подсчитывают?
Комплексно. Трафик учитывается в том числе.

Похоже что-то крутят.
Вот так в Вебмастере где МПК



alaev #:
А вот рандомные метки от Яндекса алгоритмом назвать нельзя.

Рандом - это тоже часть алгоритма )
Ну, не хочет Яндекс тратить свои ресурсы на обработку страниц и продвижение "бесполезных" для него сайтов.
Имхо, внедряется простой принцип  - хочешь "качественный" сайт в Яндексе, будь ему полезен.

Даже если взять к примеру Директ, то для Яндекса "качественным" считается сайт, с которого посетитель сверкая пятками бежит по первой рекламе. Яша ставит таким больше CPMV и соответственно платит больше.

Forzed #:
проверим работу алгоритмов — нормально ли они функционируют

В общем, как всегда, всё через сами знаете через что ...
Сперва запускают "наши алгоритмы", потом проверяют, нормально ли они работают.
А народ не может поверить что они в роли подопытных кроликов, и их режут "по живому"

TheVS #:
всё намного проще, дело только в деньгах
Это если думать только в короткой перспективе, так как это убьёт качество поиска. В итоге - потеря пользователей.

Скорее всего, всё ещё проще - очередное проявление криворукости яндексоидов.
В общем, нужно ждать откат "наших алгоритмов" ))

avangard #:
Зачем так делать?
Возможно что-бы у Яндекса была отговорка.
Это не мы, это алгоритмы так сделали, ИИ виноват! )

Основная проблема что нет четкой информации - что конкретно не понравилось их алгоритмам.

Сейчас стало модно прикручивать исскуственный инетеллект, когда своего нету.
Все хотят что-бы работала машина, а не свой мозг. Вот и Яндекс постигла таже участь с их чудо-алгорЫтмами.
Сергей :
Как исправить? Пока добавил в robots.txt но мне кажется что парсер Яндекса сошел сума.

Для начала проверить по IP адресам - Яндекс ли это приходит?
Если Яндекс, то как тут писали, достаточно ограничить скорость в вебмастере.
Яндекс не делает более 20-ти запросов в секунду.
А 20 запросов, это мелочь для нормального сервера. Из практики, обычно, не более 5-ти.

Если же кто-то делает запросы маскируясь под Яндекс через User Agent, лично я блочу через CloudFlare.
Есть там в подразделе WAF вкладка Rate Limiting Rules, либо по IP если он индивидуальный.

Для конкретного ответа, нужно полно и внятно подавать информацию, а не рассчитавать на Нострадамусов.

Всего: 875