То SEO2000:
Сбросил в личку еще пример плагиаторов, прасят главные.
Два таких в info уже прибили, но появляются новые и в ru.
Посмотри, может и себя нам найдешь.
Лучше сначала удалить все на сайте оставить 2 файла
index.php
<?php
header("HTTP/1.0 404 Not Found");
header("Status: 404 Not Found");
?>
и
.htaccess
ErrorDocument 400 /index.php
ErrorDocument 403 /index.php
ErrorDocument 404 /index.php
ErrorDocument 500 /index.php
проставить внешних (любых) ссылок на разные страницы (разделы) бывшего сайта - ибо если был забанен то заставить побыстрее Янд удалить из базы старое можно только так (удаление через webmaster.yandex.ru/delurl не пройдет), обычно в течении месяца удается вычистить, а уж потом:
Полная смена контента (причем добавить контент ОБЯЗАТЕЛЬНО уникальный) - и выход из бана обеспечен. Для очистки совести можно и платону написать.
Пример такого парсинга - сбросил в личку
http_://www.copyscape.com_/ - проверка - вводишь урл своей страницы и получаешь тех, кто у тебя ворует.
Если робот не заходит, то лучше загнать его туда через свежую внешку, адуралка не всегда помогает - ставил эксперемент:
Для исключения влияния хостинга, тематики, IP cпециально брал по 2 однотематических сайта с одним IP в разные группы. Таких групп было 10.
1 группа - добавлял только через адурлку , логи мониторил ежедневно в течении 14 дней.
2группа - ставил пару внешек с присутствующих и индексируемых ресурсов - страницы стими внешками добавлял через адурлку.
Результат: на сайты 1 группы приходил только робот Д, на вторую в течении 2-4 дней приходил индексатор.
Не знаю, чем вызвано, однако с октября у меня имеет место такая ситуация.
Так же лучше ставить одну внешку на карту сайта, а вторую на свеже-созданную страницу с уникальным текстом, и проверить главную, если есть желание могу сбросить в личку урл ресурса, который тупо парсит главные со всех подряд сайтов, вырезает теги и ложит себе набор текста с телефонами и адресами, почтовыми ящиками и т.д.
Специально выдержал паузу перед написанием отзыва, для того, что бы можно было оценить не только само размещение, но и результаты и отдачу от него.
Разместил статьи - через неделю естественно проиндексировалось 70%, через две недели все статьи присутствовали в индексе.
На днях размещался повторно, приятно работать, все сделано оперативно и с учетом моих пожеланий.
Вывод: Будем сотрудничать дальше.
Отправил статьи вчера вечером, сегодня утром получил отчет.
Площадки вменяемые, присуствуют в выдаче, по НЧ в топе - что свидетельствует от том, что они не под фильтром.
Приятный бонус, оперативность, уважительное отношение к заказчику- одним словом профессионализм на лицо.
Так что в дальнейших моих планах плотное сотрудничество с ТС.
уверенность от того, что уже неоднократно выполнял такие работы и выводил из под фильтра (за 2 месяца 18 из 20 удачно).
а по причинам - "рецепт" я писал для случая, когда наказывают за "неуникальность" контента, а в других случаях и "лекарства" другие.
При любом раскладе можно выйти из под фильтра.
Самый радикальный способ (он же и самый действенный) - закрываем весь сайт, ложим индексный файл отдающий 404 скармливаем на удаление, месяц-полтора ждем, за это время пишем уникальный контент, затем обратно все выкладываем, но уже постепенно, а не все сразу.
Если попал под ты последний, то уменьшай количество неуникальных текстов, и добавь уникальных заточенных под нужные ключевики, наберешь около 20% уникальности страниц - эти страницы выйдут из под фильтра.
P.S. Фильтр накладывается не на весь сайт на на документы (проводил соответствующий эксперемент, старые страницы последнем месте по фразе, а новые(уникальные) в топе по той же фразе).
Способ работает, временные затраты от 2-3 недель до месяца.
скинь в личку пару примеров страниц с 406, я тут заметил на своих проекта, что робот I пытается индексировать xml и соответственно отдает 406 на эти страницы.
Не хотелось бы сбросить не тот совет, а точно определиться с лекарством, и емайл свои сбрось, не всегда захожу на форум.
имхо вот и ответ на вопрос - делаем с www зеркалом, не паримся по ссылкам (со временем вес перетекет по 301&host) и забываем об этом навсегда.