Кто как решает проблему?
Ругается что url заблокированы в robots.txt . Ну понятное дело, не все страницы я хочу что бы были проиндексированы
Ошибка возникает из-за того что страница сначала была проиндексирована, а потом закрыта в роботсе от индексации, и гугл об этом говорит что мол ошибка.
И как сказать гуглу что это не ошибка, что так и должно быть? )
Пойду хату заложу
Ну в принципе их можно снять в сапе, только вот еще и яндекс есть. Боюсь что после снятия еще и в яндексе просядет. Всего около 66 ссылок в сапе.
Если я все отправлю в дисалов - гугл мне скажет "не охерел ли ты" взял, отправил просто и все.
Или нормально? )
Та нет, не сняли. Сказали что по прежнему нарушает рекомендации. Не знаю даже в каком направлении копать, все отсылать в дисалов не вариант, и снимать все саповские тоже не хочется. Хоть бы пару вариантов прислали спамных ссылок
Такое же сообщение получил. Ссылочное почистил, всю сапу не удалял. Удалял самый шлак, и несколько сайтов (вечных ссылок) отправил в дисалов
Какое то странное письмо. Ранее если сайт не подходит, они писали что по прежнему не подходит и как пример давали 2-3 ссылки которые по их мнению считаются спамными. В этом же случае никаких примеров, просто "не соответствует рекомендациям" . Может дело вовсе не в ссылках?
А в рунете какая альтернатива?
РСЯ не предлагать
У меня с 1 мая ctr упал с 3 до 1.5%.
Сейчас как говорят ctr у многих просел
Так что "плохие площадки" это просто совпадение