-=Operator=-, На пример можно вынести код банеров в отдельный .js файл, и запретить его индексацию в robots.txt :)
Имхо для полного счастья надо разобраться по каким параметрам гугл в фильт тебя пихает... Ясно одно, что это гуглбар делает, или файрфокс, который отправляет данные о редиректе. Т.е. у гугла появляется инфа о том, что у него в индексе одно, а серфер другое видит, по сути клоакинг, только с другой технической реализацией. Может надо вообще уходить от редиректа и просто показывать выдачу фида на самом доре?
А какой редирект юзаешь, если не секрет? У меня главная беда - это выпадение под фильтр, вот пытаюсь разобраться как можно этого избежать...
А какое кол-во страниц в карте, если не секрет?
Как-бы повежливее сказать....
Не к лицу серьезному человеку такое поведение. В простонародье это называется задарачивать. Т.е. издеваться над чего-то непонимающим человеком. Надеюсь с Вами так поступать не будут.
Так это-же вроде шутка была....
Абсолютно нифига не понимаю в яндексе, но в качестве общего образования любопытно. Почему это не правильно, обьясните глупому...😕
Не понял.....
Хотя вполне допускаю что это выход, т.к. не пробовал это сделать. И ничего нереализуемого в этом не вижу. Реально могу проспамить 15-20К беков за несколько часов. При этом они на реальных страницах будут, а не съедут по загаженным гестам.
И особых затрат это не вызовет... А такое кол-во страниц в индексе, даже сверхнизкочастотных полюбому даст ощутимый траф. А вот что из него выжать можно - это уже вопрос :)
Судя по выступлению вот здесь http://www.egorych.com/google/google-palit-temyi/ это действительно так... Если естественно нет прямого дублирования, на котором я крепко обжегся :)
Попробую :) Раньше спам карт приводил только к индексации самой карты :( Но правда в таких размерах не пробовал пока...
При правильном формировании страниц - не должны....