Самая главная мысль, что эксперимент в очередной раз не удался и это радует :).
А вторая главная мысль, что не надо добавлять страницы через yandex_add_url, на страницу не видно ссылок.
http://www.yandex.ru/yandsearch?text=&Link=mazurkevich.kiev.ua/seo-experiments/title-parametr-in-a-tag/test-query-10.php
Надеюсь, что с попытки #3 все-таки удасться определить истину.
Видимо, именно из-за страха к этому ужасному фильтру эти чудаки с CNet.com линкуют "все-на-все" свои сетки сайтов. Вешают все на одни NS и денег у них нет на разные IP:
https://www.nic.ru/whois/?domain=cnet.com
https://www.nic.ru/whois/?domain=bnet.com
https://www.nic.ru/whois/?domain=mp3.com
https://www.nic.ru/whois/?domain=search.com
Пропинговать, я думаю, все смогут сами.
Вcе эти разговоры о фильтрах - для тех, кто нарушает лицензию на поиск, тоесть спамит. Не спамьте - и вы поймете, что все очень легко делается :).
Если рассматривать ситуацию со статьями, теми, кто их копирует, и тем, кто должен быть выше по запросам, то выход из этого очень простой.
Так как страницы в большинстве случаев не склеятся (из-за разного дизайна сайтов), то первое время между апдейтами будет рулить статья на более сильном сайте, для гугла это можно обобщить к более высокому ПР и релевантности всего сайта к этой теме. Ведь, если появляется какая-то новость, то лучше сделать так, чтобы ее побыстрее все узнали, а не ждать пока оптимизаторы поставят 100 ссылок с запросом "поизошло землятресение в ...". Со временем ситуация будет меняться в нужную для первоисточника сторону, так как именно на источник будет идти больше ссылок, чем на остальные сайты. Другие дубликаты уйдут в прошлое.
Все может быть намного проще - http://stat.yandex.ru/queries/last20.xml.
Одно дело, когда дорвейщик - это человек который получился из белого и пушистого оптимизатора, но который разочаровался в адекватной оплате своего труда и таланта, его за..бали все эти начальники и директора, которые указывают, что делать и как. Тогда это вызывает уважение - люди способны находить новые и новые баги в поисковых системах, и это не их проблемы, а проблемы поисковиков.
Но другое дело, когда школьники, которые понятия не имеют как пишется "оптимЕзация" начинают парить своими произведениями.
Моральная сторона этой проблемы - это дело лично каждого человека.
Кому-то проще создать 100 нормальных сайтов, купить кучу хостингов и получать траф нормальным способом, - а кого-то прет от того, что его дор провисит в выдаче 2 дня и заработает $50.
У меня есть сайт в топ3 в yahoo+msn на протяжении 6 мес по овертюре 50 000 (запрос из 3-х слов) - я привык делить на 2000 :).
Поможет вам только информация с собственного overture аккаунта по реальным переходам по рекламе.
<meta Name=robots Content="noindex, Nofollow, Noarchive">
Скорее всего бан за почтовый спам, ip адрес забанен, сайт в блеклисте.
http://www.whois.sc/semanticat.com
http://www.whois.sc/rbl/?ip=193.124.133.3
Если по запаросу "site:www.ваш_сайт.com" выдет кучу проиндексированных страниц, но многие без ссылки "Cached" + по запросу "www.ваш_сайт.com" - выдает только морду вашего сайта - то это бан, если много страниц действительно проиндексировано, то не бан, бывают откаты базы, фильтры за дубликаты ...
А в поиске присутствуют сайты по запросам?
Если нет, то это признаки бана. Яху при бане сайтов оставляет только морду, которую как обычно будет продолжать индексировать, но в выдачу не выдает и ссылки на нее не учитывает. А почему у нескольких проектов сразу - потому-что они, наверное, перелинкованы между собой. Из-за дауна сервера врядли, потому-что выкинуть что-то из индекса yahoo даже при большом желании очень трудно и надо много времени.