mastserg

mastserg
Рейтинг
108
Регистрация
14.04.2005
Интересы
хорошо жить

То SEO2000:

Сбросил в личку еще пример плагиаторов, прасят главные.

Два таких в info уже прибили, но появляются новые и в ru.

Посмотри, может и себя нам найдешь.

Лучше сначала удалить все на сайте оставить 2 файла

index.php

<?php

header("HTTP/1.0 404 Not Found");

header("Status: 404 Not Found");

?>

и

.htaccess

ErrorDocument 400 /index.php

ErrorDocument 403 /index.php

ErrorDocument 404 /index.php

ErrorDocument 500 /index.php

проставить внешних (любых) ссылок на разные страницы (разделы) бывшего сайта - ибо если был забанен то заставить побыстрее Янд удалить из базы старое можно только так (удаление через webmaster.yandex.ru/delurl не пройдет), обычно в течении месяца удается вычистить, а уж потом:

Полная смена контента (причем добавить контент ОБЯЗАТЕЛЬНО уникальный) - и выход из бана обеспечен. Для очистки совести можно и платону написать.

Пример такого парсинга - сбросил в личку

http_://www.copyscape.com_/ - проверка - вводишь урл своей страницы и получаешь тех, кто у тебя ворует.

Если робот не заходит, то лучше загнать его туда через свежую внешку, адуралка не всегда помогает - ставил эксперемент:

Для исключения влияния хостинга, тематики, IP cпециально брал по 2 однотематических сайта с одним IP в разные группы. Таких групп было 10.

1 группа - добавлял только через адурлку , логи мониторил ежедневно в течении 14 дней.

2группа - ставил пару внешек с присутствующих и индексируемых ресурсов - страницы стими внешками добавлял через адурлку.

Результат: на сайты 1 группы приходил только робот Д, на вторую в течении 2-4 дней приходил индексатор.

Не знаю, чем вызвано, однако с октября у меня имеет место такая ситуация.

Так же лучше ставить одну внешку на карту сайта, а вторую на свеже-созданную страницу с уникальным текстом, и проверить главную, если есть желание могу сбросить в личку урл ресурса, который тупо парсит главные со всех подряд сайтов, вырезает теги и ложит себе набор текста с телефонами и адресами, почтовыми ящиками и т.д.

Специально выдержал паузу перед написанием отзыва, для того, что бы можно было оценить не только само размещение, но и результаты и отдачу от него.

Разместил статьи - через неделю естественно проиндексировалось 70%, через две недели все статьи присутствовали в индексе.

На днях размещался повторно, приятно работать, все сделано оперативно и с учетом моих пожеланий.

Вывод: Будем сотрудничать дальше.

Отправил статьи вчера вечером, сегодня утром получил отчет.

Площадки вменяемые, присуствуют в выдаче, по НЧ в топе - что свидетельствует от том, что они не под фильтром.

Приятный бонус, оперативность, уважительное отношение к заказчику- одним словом профессионализм на лицо.

Так что в дальнейших моих планах плотное сотрудничество с ТС.

уверенность от того, что уже неоднократно выполнял такие работы и выводил из под фильтра (за 2 месяца 18 из 20 удачно).

а по причинам - "рецепт" я писал для случая, когда наказывают за "неуникальность" контента, а в других случаях и "лекарства" другие.

При любом раскладе можно выйти из под фильтра.

Самый радикальный способ (он же и самый действенный) - закрываем весь сайт, ложим индексный файл отдающий 404 скармливаем на удаление, месяц-полтора ждем, за это время пишем уникальный контент, затем обратно все выкладываем, но уже постепенно, а не все сразу.

Если попал под ты последний, то уменьшай количество неуникальных текстов, и добавь уникальных заточенных под нужные ключевики, наберешь около 20% уникальности страниц - эти страницы выйдут из под фильтра.

P.S. Фильтр накладывается не на весь сайт на на документы (проводил соответствующий эксперемент, старые страницы последнем месте по фразе, а новые(уникальные) в топе по той же фразе).

Способ работает, временные затраты от 2-3 недель до месяца.

скинь в личку пару примеров страниц с 406, я тут заметил на своих проекта, что робот I пытается индексировать xml и соответственно отдает 406 на эти страницы.

Не хотелось бы сбросить не тот совет, а точно определиться с лекарством, и емайл свои сбрось, не всегда захожу на форум.

имхо вот и ответ на вопрос - делаем с www зеркалом, не паримся по ссылкам (со временем вес перетекет по 301&host) и забываем об этом навсегда.

Всего: 572