dimon878

dimon878
Рейтинг
129
Регистрация
18.03.2011
чеп происходит? В Яндексе 100% в отпусках?
Ashlander #:

Т.е, чтобы веб-мастер в свободном интернете чувствовал себя нормально, он должен идти на поводу Яндекса и убрать коды Адсенс и других рекламных сетей?

Если копирует 1-2 источника, то возможно справедливости добиться и получится. Если копирует 10-20, то это задница. Мне не помогли ни абузы, ни жалобы.

Все 20 в список и отправляешь яндексу, проблемы нет

Кароче. Я 2 раза вышел из под МПК:

- удалить через роботс дубли титлов и дискрипшен и вообще весь мусор что есть в выдаче с вашего сайта, пофиг как, главное убрать, их должно быть не более 1% общего числа страниц

- перейти на полностью уникальные статьи/материалы, старые переписывать не надо и удалять не надо, за картинки и видео париться не надо

- найти ресурсы которые тырят у вас контент прямо сейчас, писать им чтобы перестали это делать, жаловаться параллельно на них в ТП яндекса (почаще, а не раз в 3 дня), мол че они в ТОПе а я в ж...? 

- проверить скорость работы сайта,  исправить всё что его тормозит, ну если реально тормознутый

- внимательно смотреть что смотрят яндексы на вашем ресурсе, через вебвизор, подключить его конечно

- переписать титлы и дескрипшн от переспама ключей, ориентируясь на топ выдачи по вашей тематике

- убрать переспам ключей в тексте, если есть таковое явление у самых популярных страниц

- убрать всю левую рекламу кроме яндекса, удалить старые левые рекламные коды, коды адсенса убрать.

- пообновлять сайт, привести в порядок то, что давно откладывали

И вроде всё.

Steve Rambo #:
Нажал кнопку и написал - проверьте метку, изменения внесены неделю назад. Даже проверять не захотели, ответили через час, что робот сам обойдет и если его устроит, фильтр уберет 🤔

чуть лукавят, смотрят руками

Steve Rambo #:
Через сколько после удаления дублей вышел из под мпк?

первый раз за неделю после удаления 18 тыщ дублей, второй раз не сработало

Valeratale #:


Вообще да

1. А как? 

2. А статей много, то есть это надо был автоматически. У яши то нет такого пункта - "вот по этому урлу у тебя переспам, чумба)

3. Окей, допустим нашли, что у 10к статей переспам.. Опять таки вручную


Ну ок, я согласен вручную редактировать 10к статей. Но мне ж не говорит Яша какие именно нужно исправлять


С другой стороны, если исходить, что малопосещаемые страницы (то есть, которые за последние 30 дней были 0 или 1 раз точкой входа), то мне надо убрать порядка 15к материалов

Как это сделать? без понятия. Вручную что ли? Да и SQL запрос с in( перечисление 15к урлов) просто не выполнится


В дополнение, переписывался с Платонами. Вроде намекнули на неуник




У меня переспам не по тексту, а по "добавочным словам" в шаблоне, убрать их было делом пары минут

Смотрите через вебвизор что яндексы читают на вашем сайте

я второй раз вышел из под МПК и я ничего не удалял с сайта и старое не переписывал, то что было до мпк. Алгоритм то простой. Что сложного переспам ключевых найти? Сложно взять куски текста из статьи и пробить их поиске на наличие более ранних источников? Примитивно до безобразия 
pormonik #:
Получается у меня 1/6 страниц закрыта от индексации, но робот их регулярно обходит. Может ли быть это причиной фильтра?

Позвольте я отвечу как бы я делал. Я бы закрыл их через роботс.тхт

В вебмастере в инструментах есть анализ роботс, потом там проверяете добавит в поиск или нет. Роботы обходят всё, но не всё включают в поиск.

Steve Rambo #:
Насколько помню, она всегда была, пофиксят - это вряд ли.

ну покупать каждые 10 дней непонятный домен тоже такое себе, траста так не нажить как и доверия пользователей

Всего: 420