а у меня по 20 с фигом сайтам совсем другая статистика - яндекс даже и не пытается ходить по тем страницам, которые изначально зарезаны в robots.txt - как то своей статистике я больше доверяю.
в любом случае. есть конкретный сайт, попавший под АГС. вы высказали теорию о том, что он угодил под АГС из-за запрещенных в robots.txt спамных профилей. я же высказал теорию о том, что сайт из 70-и страниц попал под АГС из-за того, что половина страниц банальный копипаст.
моя теория намного правдоподобнее вашей. однако вы уперлись и начали тут гнать про то, что яндекс ходит по всем страницам сайта и что самое важное - учитывает их. а это, простите, уже бред полнейший.
и что ваши глупые скрины доказывают?
что сначала у вас яндекс сожрал на сайте мусор, а потом вы спохватились и мусор зарезали в robots.txt?
нормальный веб-мастер изначально не допустит, чтобы в индекс попали мусорные страницы.
вот также думали и прошлые "гиганты" вроде алтависты и яху. и именно это их и погубило в конечном итоге. ничто не вечно под луной - вполне возможно, что через 10 лет будут писать о том, как "гугл слил позицию поисковика номер 1". вот также, как в начале 90-х писали о том, как apple из мега-корпорации стал маленькой и никому ненужной компанией с мизерными оборотами.
вы недооцениваете степень маразма в нашей стране - еще парочка скандалов со сливом информации гуглом в АНБ и прочие американские шаражки - и очередная мизуллина предложит законопроект о запрете гугла, как поисковика. кажется идиотизмом? да. но, к сожалению, такое вполне может быть.
а ключи от квартиры, где деньги лежат?
глупости то не говорите, список "Загружено роботом" прекрасно показывает, что бот яндекса не грузит запрещенные к индексации страницы. иначе у любого блога на 100 страниц было бы по 5000 страниц "загруженных", среди которых теги, архивы и прочий мусор.
может хватить троллить то, ок?
я с вами не согласен - яндекс ходит, а потом исключает, если изначально эти страницы были открыты, а потом их закрыли. если на новом сайте все дубли и прочее закрыто - бот яндекса туда не ходит, в счетчик "загруженных" такое не добавляет и потом не исключает.
да и сама теория о том, что получить АГС из-за запрещенных к индексации страниц несколько натянута. на указанном сайте и без этих запрещенных к индексации профилей все понятно - меньше 70 страниц, из которых половина копипаст - за это и АГС.
не яндексом единым. есть гугл, социальные сети, директ и эдвордс. с точки зрения яндекса - трафик на сайте должен быть даже на АГС-сайте.
а метрика - вы правда думаете, что яндекс только с помощью метрики узнает о трафике? есть счетчики li.ru, есть тулбары для всех браузеров, есть собственный браузер, в конце концов - вы уверены, что тот же punto switcher не шпионит на яндекс?
в этой теме уже неоднократно говорили, что продажные ссылки это лишь один из факторов для наложения АГС. вроде как сошлись на мнении, что нынешный АГС всерьез учитывает трафик и видимость сайта в ПС. не без ошибок, но в целом так.---------- Добавлено 23.11.2013 в 18:10 ----------
с чего вы это взяли? я вот там на форуме не вижу топиков от ботов - все подчищается. а сами профили с ботовыми учетками закрыты в robots.txt - о них ПС вообще не знают.
с другой стороны - копипастные топики явно повлияли на АГС. страниц сайта и так немного, а тут среди них чуть ли не половина копипаста. удивительно, что сайт под старые волны АГС не попал.
я бы не был так уж в этом уверен.
напрямую может ТИЦ и непричем, но вот количество и качество внешних ссылок на сайт АГС должен учитывать. как бы это весьма важный показатель.
опять же повторюсь - на кой черт изобретать велосипед, если эти базы в открытом доступе? было бы у яндекса желание напрочь убить рынок продажи ссылок - они бы его убили в один день. но у них задача не убить продажные ссылки вообще, а убрать влияние ссылок с сайтов, которые не представляют собой интереса для посетителей.
то есть с их точки зрения - если сайт настоящий СДЛ - то ссылки с такого сайта могут жить, даже продажные. если же сайт ГС - то ссылки с такого сайта не должны влиять на поисковую выдачу.
если бы не ошибки с наложением фильтра, то я даже бы с ними согласился. нарастить ТИЦ до 10-50, а потом клепать сотнями никому не нужные и нечитаемые никем статьи в ГГЛ - кому это надо?
собственно, потому ГГЛ и пострадал больше сапы - слишком уж много веб-мастеров для статей из ггл заводят отдельную рубрику, которую большинство посетителей вообще не видит и не читает.
чекать проверку ссылок - это одна из самых идиотских теорий. слишком уж легко ее накрутить для любого сайта, яндекс при всей своей показушной глупости все-таки не настолько глуп. особенно, когда есть решения куда проще.
вы же понимаете, что проще было зайти в сапу и спарсить всю базу, продающих ссылки сайтов? то, что там написал яндексойд полная глупость - на хрена чекать проверку url (которую, кстати, накрутить может любой желающий), когда вся база в открытом виде есть для любого зарегистрировавшегося в сапе?
тут не надо быть особо умным, что сделать выводы о том, что в статье написана полная хрень.